0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Jetbot智能车如何识别与周边物体的距离

NVIDIA英伟达企业解决方案 来源:NVIDIA英伟达 作者:NVIDIA英伟达 2022-02-07 11:35 次阅读

避撞功能是 Jetbot 一开始最令人瞩目的功能,因为这是所有小车都必须具备的最基本“自我保护”的能力,而 Jetbot 没有任何距离传感,只凭着一个 CSI 摄像头就能完成这项任务,对很多人来说是一件蛮神奇的事情,Jetbot 是如何识别与周边物体的距离,来决定是继续前进还是得转向?

这里请大家先沉淀一下来思考,人脑是如何学习判断前方的路是可以继续前进?或是有障碍物、坑洞必须转向?请先忘记您的成年人身份,试着模拟刚学会爬行的小婴儿,如何逐步学习并建立这方面的“认知系统”呢?小婴儿对前方的信息来源,有以下三个特点:

只有视觉(眼睛)的输入

没有距离的概念

缺乏物件的分类

在没有其他干预的状况下,小婴儿必定得经过不断地碰撞与摔倒之后,自身防御系统会逐步学习并修正决策机制,这是动物界最原始的学习机制。小婴儿在这个过程所接收的信息,就是没有距离、没有物件类别的最基本“图像”而已。

到目前为止,Jetbot 的运作逻辑是最接近人类行进思维的一套智能无人车,因为我们并不需要去判断与障碍物(或坑洞)之间的确实距离是多近,也不需要分辨前面障碍物是什么东西,就能下达“前进”或“转向”的决策。

当我们安装好 Jetbot 智能车与系统软件之后,接下去就是为每个特定功能添加“深度学习”的智能识别技术进去。例如这个避障的应用就只使用到最基础的“图像识别”能力,将 CSI 镜头的每帧画面识别出“无阻碍(free)”与“有阻碍(blocked)”两种状态,然后发出对应指令去驱动电机执行运动。

任何要添加深度学习的智能识别功能,都必须执行以下三个步骤:

数据收集与整理

模型训练

执行识别

这个避障功能的实验代码在 Jetbot 的 notebooks/collision_avoidance 下,里面有 8 个 .ipynb 文件,包括 1 个 data_collecton.ipynb、3 个 train_modelxxx.ipynb 与 4 个 live_demoxxx.ipynb,分别对应上面所说的三个步骤。不过这些实验代码不需要全都用上,这里以 data_collecton.ipynb、train_model.ipynb 与 live_demo.ipynb 这三个最基本的代码来做说明。

碍于篇幅问题,本文先带着大家运行 live_demo.ipynb 代码,去体验一下 Jetbot 的避障功能,毕竟前面花了这么多时间与精力所组装的系统,先跑起来能获得一些成就感之后,在下一篇文章里再说明比较枯燥的“数据收集与整理”、“模型训练”两大步骤,这样才算完成整个流程。

为了让大家能够先行体验,这里提供原创团队预训练的 best_model.pth 模型的链接,模型的训练方式会在下一篇文章里面说明,这里只管下载到 collision_avoidance 目录下使用就行。文件链接如下:https://drive.google.com/file/d/1UsRax8bR3R-e-0-80KfH2zAt-IyRPtnW/view

由于我们未得到原创团队的授权,不能擅自下载这个存放在 Google 网盘上的文件,再分享给读者下载,请大家能够理解,这需要读者请自行设法下载!

接下来开启 notebooks/collision_avoidance/live_demo.ipynb 工作脚本,逐步执行就能让 Jetbot 小车执行避障的功能。这里面主要分为以下三大部分:

1. 加载训练的模型:

这里关于深度学习的部分,全部使用 PyTorch 这个轻量级的框架,对于不熟悉的读者来说,一开始的两行代码可能就已经会产生不小的困扰,现在就简单地逐行说明:

model = torchvision.models.alexnet(pretrained=False)

torchvision 是 PyTorch 里面专门用在视觉应用的深度学习库。

由于 PyTorch 内建支持很多常用的神经网络结构,这里要使用深度卷积网络始祖的 AlexNet,是因为前面提供下载连接的 best_model.pth 就是以 AlexNet 进行训练的图像识别模型,因此这里对应地用 torchvision.models.alexnet 函数来创建 model 对象。

由于现在是要执行推理任务而不是做训练,因此 pretrained=FALSE

model.classifier[6] = torch.nn.Linear(model.classifier[6].in_features, 2)

这行代码是至关重要的,首先在这行代码上方加入“print(model.classifier)”,执行后会看到以下的数据结构:

Sequential(

(0):Dropout(p=0.5, inplace=False)

(1):Linear(in_features=9216, out_features=4096, bias=True)

(2):ReLU(inplace=True)

(3):Dropout(p=0.5, inplace=False)

(4):Linear(in_features=4096, out_features=4096, bias=True)

(5):ReLU(inplace=True)

(6):Linear(in_features=4096, out_features=1000, bias=True)

)

这是 torchvision 里为 AlexNet 神经网络所预先定义的图像分类功能的结构,其中 classifier[6].out_features 是模型最终的输出数量,也就是分类数量。

因为 AlexNet 这个“深度神经网络”的鼻祖,是在 2012 年 ILSVRC 竞赛中以 1000 分类的 ImageNet 数据集作为测试标,一举拔得头筹而开创“深度学习”新时代,这个 1000 分类的 AlexNet 图像分类模型便成为这个领域的经典之作,因此在标准的 AlexNet 模型中就保留“1000”这个数字作为基准。

在这个避障应用中只使用“free”与“blockerd”两个分类,因此需将 classifier[6] 的输出类别数量调整为 2。请在代码下方加入“print(model.classifier[6])”指令,打印出修改后的内容,会看到“out_features”的值已经变成 2。

注意:每种神经网络的处理方式是不同的,必须根据PyTorch的定义进行调整。

接下去三行代码就是将模型文件加载进来,然后存到 CUDA 设备去,相对直观:

model.load_state_dict(torch.load('best_model.pth'))

device = torch.device('cuda')

model = model.to(device)

2. 图像格式转换与正规化处理:

这几乎是所有视觉类深度学习应用中不可或缺的步骤,比较繁琐的部分是不同神经网络存在细节上的差异,不过总的来说都脱离不了以下部分:

(1) 颜色空间转换:所有神经网络都有自己定义的颜色空间格式,这里的 AlexNet 接受 RGB 数据,而 CSI 摄像头的格式为 BGR,这样就必须进行格式转换。这部分的处理几乎都使用 OpenCV、numpy、PIL 这些强大的图像处理库就可以,下面这行代码就是执行这个功能。

x = cv2.cvtColor(x, cv2.COLOR_BGR2RGB)

(2) 张量顺序转换:将 HWC 顺序转换成 CHW 顺序,下面指令就是执行顺序调整:

x = x.transpose((2, 0, 1))

(3) 正规化(normalization)处理:透过减去数据对应维度的统计平均值,消除公共部分以凸显个体之间的差异和特征的一种平稳的分布计算。下面使用到的 [0.485, 0.456, 0.406]、[0.229, 0.224, 0.225] 两组数据,是业界经过公认的经验数据。

mean = 255.0 * np.array([0.485, 0.456, 0.406])

stdev = 255.0 * np.array([0.229, 0.224, 0.225])

以上就是针对读入图像与模型之间对应的一些转换与计算的过程。

3. 创建控制元件并与摄像头进行关联:

这里使用的 traitlets、IPython.display、ipwidgets.wiegets 与 jetbot 的 Camera 库,在前面的文章里都说明过,比较重要的代码如下:

(1) blocked_slider:用于显示所获取图像是“blocked”类的几率

blocked_slider = widgets.FloatSlider(description='blocked', min=0.0, max=1.0, orientation='vertical')

(2)speed_slider:用于调整 Jetbot 小车行进速度比

speed_slider = widgets.FloatSlider(description='speed', min=0.0, max=0.5, value=0.0, step=0.01, orientation='horizontal')

(3)camera_link:将摄像头获取图像与 image 变量进行关联,并执行格式转换,才能在下方“display”指令之后,将摄像头图像动态地在 Jupyter 里显示。

camera_link = traitlets.dlink((camera, 'value'), (image, 'value'), transform=bgr8_to_jpeg)

执行这个阶段代码之后,下面应该会出现如下图左方的显示框,试着在镜头前晃动手,看看画面内容是否产生变化?显示框右边与下方分别出现“blocked”与“speed”两个滑块,就是前面代码所建立的小工具。

由于后面会使用到这个 “speed” 滑块对 Jetbot 进行速度调整,并且我们也希望能实时观察到摄像头的画面,因此建议用鼠标在画面上点击右键,点选上图右方 “Create New View for Output” 去创建另一个独立输出框,然后进行位置调整如下图,这样就方便后续的操作。

4. 将控制元件与网络模型、机电控制进行结合:

这是整个应用中最核心的整合与计算过程,虽然代码量不多,但信息量却非常大,现在将这部分切割成几个小块来进行说明。

(1) 获取图像进行识别:

def update(change):

x = change['new']

x= preprocess(x)

y= model(x)

。。。

update({'new': camera.value})

这里首先定义 “update(change)”,在最下方用”update()”进行调用。

在“update({'new': camera.value})” 里使用{key:value}对的方式,将 camera.value 图像内容透过 change['new'] 传给 x 变量;

将 x 变量传入进行前面定义的 preprocess() 格式转换与正规化处理;

y 是 model(x) 推理计算所得出来“blocked”与“free”两个类的个别置信度,例如为[-0.9425, 0.4077];

(2) 将置信度转换成[0,1]范围的值:

y= F.softmax(y, dim=1)

prob_blocked= float(y.flatten()[0])

blocked_slider.value= prob_blocked

这里调用 torch.nn.functional.softmax 函数,将所有类置信度的总和调整为1,如此一来前面的[-0.9425, 0.4077]就转换成[0.2058, 0.7942];

作为行进的决策判断,我们只要在两个类别中挑选任何一个都可以,这里的代码以“blocked”类几率值作为判断的依据,因此取 float(y.flatten()[0]) 的值,如果改用“free”的几率,就取 float(y.flatten()[1]) 的值。

然后将这个值同时也传给 blocked_slider.value,现在看看前面输出的 blocked 滑块的值是否跟着产生变化!

(3)用 prob_blocked 值控制 Jetbot 行进:

ifprob_blocked < 0.5:

robot.forward(speed_slider.value)

else:

robot.left(speed_slider.value)

这里设定以 0.5 的几率值为上限,当 prob_blocked < 0.5 时就前进,否则就原地左转,当然您也可以改成往右转。

Jetbot 的行进速度由“speed_slider.value”变量所控制,这个数值得透过前面输出画面的 “speed” 滑块去调整速度,最高值可以到 0.5,这是前面创建滑块时就定义的。

执行到这里的时候,正常状况应该如下:

摄像头传回的画面是实时更新;

“blocked”滑块固定在某个值;

现在调整“speed”滑块的值并不会让电机开始转动。

现在可以将 Jetbot 小车放到您安排的执行场地上,在执行下一个步骤之前,建议透过“speed”滑块将速度控制在 0.25 以下,避免启动后造成 Jetbot 小车爆冲。

5. 启动摄像头的动态关联:

这里其实就只有下面这一道指令:

camera.observe(update, names='value')

这是由 jetbot 所提供的函数,将 camera.value 与前面定义的 update(change) 进行动态连接上,现在 Jetbot 小车就应该开始行动了,摄像头里的画面也在不停更新,右方“blocked”滑块的值也在不断跳动(更新),现在试着调整“speed”滑块,是不是就能改变行进的速度了!

好了,现在就可以看看您 Jetbot 小车的避障功能执行的如何?如果想停止工作的话,就继续往下执行暂停的指令就可以。

最后需要说明的,假如您的避障功能执行的不是太好,例如无法顺利识别一些障碍物或坑洞的话,通常是因为您的测试场所或者使用的摄像头规格(广角),与原厂提供的模型数据有比较大的差异,甚至场地明暗度也会有影响,如果测试效果不如预期的话,就得自己重头收集数据并重新训练模型,这才是解决问题的根本之道。

原文标题:NVIDIA Jetson Nano 2GB 系列文章(49):智能避撞之现场演示

文章出处:【微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

审核编辑:汤梓红


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4985

    浏览量

    103035
  • 镜头
    +关注

    关注

    2

    文章

    506

    浏览量

    25639
  • 智能识别
    +关注

    关注

    0

    文章

    201

    浏览量

    18126

原文标题:NVIDIA Jetson Nano 2GB 系列文章(49):智能避撞之现场演示

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    智能车路协同试验开发服务

    经纬恒润推出的智能车路协同试验能够提供智能驾驶样智能驾驶域控制器及V2X设备,可以满足
    的头像 发表于 12-17 10:03 341次阅读
    <b class='flag-5'>智能车</b>路协同试验<b class='flag-5'>车</b>开发服务

    AI智能识别监测摄像机

    随着人工智能技术的飞速发展,AI智能识别监测摄像机逐渐成为各行各业安全管理的重要工具。这种高科技设备不仅具备传统监控摄像机的基本功能,还通过深度学习和图像处理等先进技术,实现了对人、
    的头像 发表于 11-28 10:39 233次阅读
    AI<b class='flag-5'>智能</b><b class='flag-5'>识别</b>监测摄像机

    复杂环境下多无人智能车辆协同调控

    摘要: 该文对多无人智能车以领航-跟随法在复杂环境下运动的编队控制问题进行了探讨,通过采用闭环控制律设计了一种编队控制器和编队控制方案,该编队控制器的优点在于其主要考虑智能车之间的距离和角度,同时
    的头像 发表于 11-16 10:12 358次阅读
    复杂环境下多无人<b class='flag-5'>智能车</b>辆协同调控

    物体识别桌 AR物体识互动桌 电容屏实物识别漫游桌

    在这个科技发达的时代,AR增强技术也在迅速发展,在展厅展馆中发光发热,带来了创意无限的互动展示效果,AR技术结合物体识别技术打造的AR物体识别桌,让游客有了全新的体验,通过新颖的人机交
    的头像 发表于 10-21 17:44 192次阅读

    物体识别交互软件 AR实物识别桌软件 电容物体识别

    物体识别交互软件是一种新型的展示互动设备,其采用Unity3D技术开发,还运用物体识别技术、多媒体技术等现代先进技术。软件拥有强大的互动性和展示效果,有效提升了展品宣传效果,让观众了解
    的头像 发表于 10-16 17:22 239次阅读

    毫米波雷达传感器:物体距离间的关系

    电子发烧友网站提供《毫米波雷达传感器:物体距离间的关系.pdf》资料免费下载
    发表于 09-21 10:11 0次下载
    毫米波雷达传感器:<b class='flag-5'>物体</b>与<b class='flag-5'>距离</b>间的关系

    20.0-电磁杆的组装和实物介绍“这个是就是你想要的“-智能车电磁组 电磁循迹小车

    电子设计大赛20.0-电磁杆的组装和实物介绍“这个是就是你想要的“-智能车电磁组 电磁循迹小车 电磁循迹 电磁循迹小车代码 电磁杆的制作 电磁杆原理图PCB设计
    的头像 发表于 08-20 11:07 431次阅读
    20.0-电磁杆的组装和实物介绍“这个是就是你想要的“-<b class='flag-5'>智能车</b>电磁组 电磁循迹小车

    20.3-使用两个通道进行电磁循迹 智能车竞赛 电磁杆原理图 电磁循迹小车 STM32电磁小车 电磁循迹算法

    20.3-使用两个通道进行电磁循迹 智能车竞赛 电磁杆原理图 电磁循迹小车 智能车电磁组 STM32电磁小车 电磁循迹小车 电磁循迹算法 智能车环岛 智能车比赛规则 归一化处理 差比和
    的头像 发表于 08-20 10:56 793次阅读
    20.3-使用两个通道进行电磁循迹 <b class='flag-5'>智能车</b>竞赛 电磁杆原理图 电磁循迹小车 STM32电磁小车 电磁循迹算法

    20.2-电磁杆在磁轨道的测试 零基础入门智能车竞赛 STM32电磁小车

    20.2-电磁杆在磁轨道的测试 零基础入门智能车竞赛 智能车竞赛 电磁杆原理图 电磁循迹小车 智能车电磁组 STM32电磁小车 电磁循迹小车 电磁循迹算法 智能车环岛
    的头像 发表于 08-20 10:52 640次阅读
    20.2-电磁杆在磁轨道的测试 零基础入门<b class='flag-5'>智能车</b>竞赛 STM32电磁小车

    vivo智能车载正式上线视频类应用

    7月15日,vivo官方正式宣告,其创新的智能车载系统OriginOS新增了一项重大功能——“vivo智能车载”,该功能现已集成并上线了首批七款热门视频类应用程序,涵盖了爱奇艺、腾讯视频、优酷视频、哔哩哔哩、抖音、快手及西瓜视频,为用户在驾驶途中的休闲时光增添了更多娱乐选
    的头像 发表于 07-16 16:27 1186次阅读

    什么是智能车间和智能工厂 它们有什么区别

    智能车间和智能工厂是工业4.0时代的产物,它们代表了制造业的数字化、智能化和自动化。虽然它们在很多方面有相似之处,但它们之间还是存在一些区别。本文将详细介绍智能车间和
    的头像 发表于 06-07 15:15 2349次阅读

    小米之后,做手机的魅族也造了 搭载FlymeAuto智能车机系统

    小米之后,做手机的魅族也造了 搭载FlymeAuto智能车机系统 小米汽车在推出小米SU7之后订单火爆,似乎有人坐不住了,魅族也来造了。 据魅族无界智行网站显示,魅族旗下首款车型或疑似命名为“魅
    的头像 发表于 05-15 16:40 1399次阅读

    Meta探索开发AI耳机:识别物体和翻译外语

    据外媒The Information透露,Facebook母公司Meta正积极研究研发配备摄像头的人工智能耳机,旨在实现物体识别与外语实时翻译功能。
    的头像 发表于 05-14 14:26 509次阅读

    黑芝麻智能与一汽红旗达成武当系列C1200家族智能车控项目合作

    基于武当系列C1200家族,一汽红旗将打造高性价比的单芯片智能车控平台方案,产品将覆盖智能驾驶、整车数据交换及控制功能。 4月 25 日,第十八届北京国际汽车展览会拉开帷幕,在此次车展上,黑芝麻智能
    的头像 发表于 04-26 10:05 912次阅读
    黑芝麻<b class='flag-5'>智能</b>与一汽红旗达成武当系列C1200家族<b class='flag-5'>智能车</b>控项目合作

    ROS系统的智能车开发-基于米尔芯驰MYD-JD9X开发板

    本篇测评由电子工程世界的优秀测评者“mameng”提供。本文将介绍基于米尔电子MYD-JD9X开发板的ROS系统智能车开发。目前实现ROS的方式主要有两种:Ubuntu系统+ROS;Ubuntu系统+docker+ROS镜像;使用do
    的头像 发表于 01-26 08:01 927次阅读
    ROS系统的<b class='flag-5'>智能车</b>开发-基于米尔芯驰MYD-JD9X开发板