视线遮挡一直是自动驾驶很难攻克的问题。Occlusion,也就是视线遮挡,主要指因为建筑物、障碍物或是其他车辆遮挡视线,导致汽车无法做出最佳决策。在车辆转弯时候尤为常见。
大家在玩吃鸡的时候,都需要找遮挡物。子弹就好像自动驾驶车的雷达波束,只能到达直线以内的范围。障碍物后面的敌人就没办法打到了。
有什么办法能让你看穿遮挡物,做到提前预判呢?斯坦福大学和麻省理工各有各的方法,都可以用于自动驾驶。我们一起来看看。
非线性图像识别 - 斯坦福大学
斯坦福图像识别组这周刚刚在Nature发表了一篇论文“Confocal non-line-of-sight imaging based on the light-cone transform”,提出非线性图像识别技术(Non-line-of-sight imaging)
首先,把雷达放在一个光子探测仪旁边。雷达发出波束,就像普通自动驾驶车一样。波束接触到墙面,就会散发出余光。假设图片里的右下角的兔子是我们需要探测到的行人。
普通自动驾驶车只会看波束返回时间,也就是到P点的时间,从而计算与自动驾驶车的距离。但是这次我们要看波束弹射出的余光。光子探测仪会捕捉这些余光。波束虽然没有直接照在那只兔子上,但余光会按照一定顺序弹在其他表面上。
将所有余光集中在一起,排除那些直接反射回的光束,剩下的就是来自遮挡物的。由此就可以还原出目标物体的3D原型。现在的计算过程只需要1秒钟,但是还不够高效,现实驾驶环境需要司机在0.5秒内做出反应。
眼神会转弯的摄像头 - 麻省理工
看过了雷达技术,我们再来看看自动驾驶车另一大传感器:摄像头。不知大家有没有留心观察过墙角的光线变化。肉眼大概能看出有一些深浅的区别。
麻省理工Media Lab最新研究出一种颜色处理方式。通过处理图像,加强颜色差,不停变化颜色,就可以得到一连串的单向光线图像。
假设现在墙后面有两个行人,一个穿蓝色,一个穿红色,蓝色衣服的人正在超过红色衣服的人。我们看到的成像就会是这样的。
原理很简单。被遮挡的人虽然我们无法直接看到,但是他们还是会反射一部分光。红色衣服的人和蓝色衣服的人会有重叠的地方。通过一段时间观察,绘制光线图,就可以分析出有几个物体在重叠。
这些发明除了自动驾驶也可用于其他领域,比如自然灾害后的搜救、医学成像、航天、安保监控等等。
-
传感器
+关注
关注
2548文章
50765浏览量
752163 -
摄像头
+关注
关注
59文章
4815浏览量
95484 -
雷达
+关注
关注
50文章
2905浏览量
117358 -
自动驾驶
+关注
关注
783文章
13698浏览量
166171
原文标题:自动驾驶技术让你更自信的吃鸡
文章出处:【微信号:zidongjiashishuo,微信公众号:自动驾驶说】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论