2018年6月21-22日,由布谷鸟科技、佐智汽车主办,艾拉比智能、ADI亚德诺半导体、索喜科技赞助支持的“2018第二届智能座舱与智能驾驶峰会”在深圳福田区绿景锦江酒店举办。来自哈曼研究部(中国)总监张青山在会上做了《三星哈曼自动驾驶前景展望及解决方案》的主题演讲。
哈曼 张青山
张青山:很高兴有机会和大家分享三星哈曼在自主驾驶领域对未来的展望,以及我们已经做的工作。希望和大家一起推动自动驾驶技术在市场的落地。
几年前,智能网联汽车还是比较新的话题,主流的车厂都持保留的态度,怀疑它能不能在现有的技术下成为现实。今天,自主驾驶已经深入人心,成为被工业界广泛接受的概念,现在大家的话题是在什么时候实现什么级别的自动驾驶。
主机厂自动驾驶规划
根据我们收集到的信息,各个厂商在自主驾驶上的规划,可以看到现在的机会出现在L3级别的自主驾驶产品。大量厂商,包括前期的先行者像谷歌、特斯拉,包括互联网企业和新型造车势力,更重要的是传统车厂也广泛接受这个概念。我们可以看到大量传统的汽车厂商已经加入这个阵营,有明确的量产计划。
实际上现在的机会主要是在L3级别,为什么现在是L3的时代?L3是自动驾驶从量变到质变的分水岭,L3对人类驾驶员的依赖会减少,主要由机器完成自主驾驶。L3的要求是系统的驾驶任务无法完成的时候,能安全的把驾驶任务交给人类驾驶员,奥迪的第一款L3产品要求8-10秒给到人类驾驶员。如果人类驾驶员无法接手,怎么办?他在走神或者有其他状况,L3是无法安全把驾驶任务交给人类驾驶员时,它能够自动刹车,自动的做出处理,会靠边安全的停下来,而不是强迫人接管。L3现在是市场的机会。为什么是L3而不是直接进入L4,丢掉方向盘、刹车板、加油板?这是受到现有技术的限制和成本限制。
我们浏览一下最近几年自主驾驶的安全事故。
第一个是2016年Google第一次责任事故,我们知道Google的自主驾驶技术有很好的安全记录,但是2016年2月发生第一次责任事故。因为它没有理解人类的行为,当时它在往前行驶的时候看到路上有修路用的沙包,于是决定换道。同时发现左后方有校车,它认为校车应该让它变道,实际上人类驾驶员没有让它变道,所以Google换道发生碰撞,这是自主驾驶汽车不够智能的案例。
第二个案例是一个悲剧,特斯拉的那次事故,因为两项传感器都没有检测出大货车,所以它毫不犹豫的撞上去了,最后发生致死的事故。这是对环境的感知不够。
第三个案例发生在去年年底,刚刚在拉斯维加斯一个通勤小巴,刚刚进入商业运营两个小时就发生事故,它的环境感知是OK的,能够检测出这个大货车。但是被人诟病的地方是发现大货车之后停车,没有像人类驾驶员一样后退或者鸣笛,这辆自主驾驶汽车只是静静待在那里,不做反应,说明它对人类驾驶员或者对公路上的其他移动物体的理解是远不够智能的。这点是赶不上人类的。
第四个是Uber的案例,经过调查报告发现,Uber无人车已经检测到推自行车的人,在比较长的距离里面,它的控制系统没有做出任何反应,虽然很好的检测到这个人,为什么没有做出反应?据说是因为它的传感器误检率太高,车频繁刹车,工程师受不了,就关掉传感部分和控制部分的联系,所以它的控制部分没有做出任何行动,最后发生了这次悲剧。这是对驾驶环境感知的缺失造成了这些事故。
案例分享之后,考虑一下为什么只能在L3,还不能演进到L4?我们总结出两个最大的挑战。
自主驾驶面临的两大挑战
一是高精度的环境感知技术,现在借助毫米波雷达、摄像头、激光雷达,可能还无法做到高精度的环境感知。固态激光雷达还无法把成本降到量产化的水平,所以现在的环境感知会遇到比较大的挑战。
二是我们刚才提到的人工智能技术。无论是环境感知还是人工智能,我们都知道它需要大量的计算,而且是数据密集型的计算。我们知道车载传感器会产生巨量的数据,同时人工智能方面,深度学习的层数,比较典型的是上百层或者几百层以上的学习,要求的计算量巨大。数据密集型的计算能力也是自主驾驶面临的巨大挑战。
深度学习在近几年获得比较大的成功,主要在于它对图像的理解和识别上获得比较大的成功,我们把深度学习技术应用到研究和产品里面。这是我们利用深度学习网络做的基于摄像头环境感知的研究项目。可以看到通过摄像头拍的照片,我们对路上的物体速度、距离做出估计,同时也对场景做了语义分割;我们区别出哪些是道路上的运动物体,哪些是可以行驶的路面,哪些是非行驶路面。蓝色的是道路上的物体,深紫色是道路,其他颜色是非行驶区域。这是上海高架路上拍摄的真实视频,我们对它做了实时处理。大家可以看一下。(视频播放)
通过对道路上移动物体做出距离和速度的估计,同时对道路场景做了语义分割,我们可以明确分辨出可行驶区域和运动的物体,这样自主驾驶汽车可以根据得到的环境感知信息做出相应的驾驶决策。
当前的人工智能技术,刚才谈到最成功的应用是在驾驶环境感知上的应用,目前人工智能不足的地方在哪里?当前用于自主驾驶的人工智能依赖于庞大的数据完成微小的任务,比如有大量的传感器数据,用这么多传感器数据只能做到车道保持或者自主换道这些非常简单的任务。这对未来的L4或者L5级别的自主驾驶汽车是远不够的,我们希望未来的AI、未来的自主驾驶AI是基于少量数据的,但是能够完成复杂任务的人工智能。
给大家分享一只乌鸦的智能给我们的启示,这是日本的生物学家拍到的一系列照片。一只来到城市的乌鸦要觅食、吃坚果,它的嘴巴打不开坚果,坚果掉到路上可以被汽车压碎,可以吃到果仁。但是快速行驶的汽车会给它带来伤害。它就在电线上观察,观察之后得到结论,在红灯亮起的时候去马路上吃坚果(就会比较安全)。乌鸦的智能远超过现有自主驾驶汽车的智能,包括刚才分享的Google自主驾驶的智能,和拉斯维加斯运营的NAVYA无人车的智能。我们希望未来自主驾驶的智能能达到这样的水平,或者向这样的水平前进。
未来的自主驾驶汽车要有什么样的特征?首先是准确的环境感知能力,其次是具备一定数量的常识,这个常识包括物理常识和社会常识。基于少量社会数据,在任务的驱动下,给他一个复杂的任务,告诉他起点和目的地。
我们只是交给它这么一个任务,就能够在自己的驾驶过程中去自我学习和自我进化。前面若干次驾驶的效率或者安全性没有那么高,但是执行任务过程中不断的进化,像那只乌鸦一样学会更有效的方法,最终能够很好的完成驾驶任务,这才是我们希望的未来自主驾驶技术。这样的技术也是基于大量的计算。
三星哈曼在自主驾驶技术领域的努力
前面谈到未来自主驾驶技术的展望和愿景,下面跟大家分享三星哈曼在自主驾驶技术领域做的努力。大家知道去年9月份在法兰克福车展上,三星第一次宣布介入自主驾驶领域,同时宣布成立3亿美金的自动驾驶投资基金。这些投资分布在跟自主驾驶领域相关的很多技术领域,包括大家都比较关心的车载传感器、域控制器、功能安全等方面。
三星第一笔自动驾驶投资给了TTTech,为什么第一笔投资给TTTech?这是奥迪A8,是全世界第一款成功量产的L3汽车,这款汽车的域控制器就是奥迪和TTTech合作完成的。这个项目检测出TTTech这家做航空安全的奥地利公司的功能安全技术在业界领先,而且是可以在自主驾驶领域得到很好效果的公司,所以三星第一笔投资给了TTTech。TTTech和三星合作推出三星的自主计算平台DRVLINE。
2018年初的CES大会上,三星正式公开了自动驾驶平台DRVLINE,DRVLINE域控制器有很多特性:
一是开放性,硬件架构、软件架构上都是一个开放的系统。硬件的提供商,比如芯片商可以把高性能芯片集成到系统里面去。同样的各个软件模块,像高精度地图模块、数据处理模块或者数据融合的模块以及驾驶决策模块都可以集成到DRVLINE平台里面去。
二是模块化,这是TTTech的强项,对功能安全和功能模块划分的技术是很强,TTTech和三星一起合作的产品就是对软件功能做详细的划分,并把它们限定到一定的计算资源里面。重要的软件功能会运行在自己的计算资源范围内,互相之间不会有冲突,保证最重要的安全功能能够得到足够的计算资源。
三是可扩展性,我们刚才提到了,自主驾驶面临一大挑战是数据密集型的计算,DRVLINE平台有很好的平台扩展能力。
这是我们关注的几个领域。域控制器主要关注巨量计算能力,传感器领域三星投资了很多传感器公司,包括固态激光雷达公司。算法方面,三星和哈曼一起做了很多积累,云服务和用户体验都是我们平台关注的技术。
刚才提到DRVLINE的扩展性,可以通过两个扩展的插槽接入更强大的计算能力,这是为未来的自主驾驶从L3到L5准备的计算平台。
环境感知方面,三星哈曼也做了努力,我们推出了高性能的前置摄像头,这个摄像头有100度的视角范围,而且可以探测到前方160米的距离30厘米直径的物体。这样的环境探测能力对自主驾驶非常有利。
三星、哈曼以及TTTECH三方合作组建自主驾驶研发团队,三星利用它在半导体技术上的优势,处理芯片的优势,搭建DRVLINE计算平台。TTTECH利用安全技术领域的优势来为这款产品打造中间件。哈曼作为Tier1,有强大的系统集成能力和车载能力,以及我们以前在自主驾驶上做的研究积累,三方一起来打造DRVLINE平台,把它推向世界市场。
-
半导体技术
+关注
关注
3文章
237浏览量
60673 -
自动驾驶
+关注
关注
783文章
13647浏览量
166061 -
智能网联
+关注
关注
4文章
598浏览量
23217
原文标题:哈曼张青山:三星哈曼自动驾驶前景展望及解决方案
文章出处:【微信号:zuosiqiche,微信公众号:佐思汽车研究】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论