随着汽车制造商逐步加快自动驾驶技术的部署和预研,一场没有硝烟的战争开始从过去传统的汽车制造车间向数据处理与运营服务平台转移。
从简单的改装几辆自动驾驶测试车,到真正开始为未来智能驾驶汽车进行全生命周期的规划,汽车主机厂必须开始考虑如何设计、构建和运行大规模训练以深度学习为中心自动驾驶技术的数据中心。
深度神经网络技术、大数据云端处理几乎可以断定将成为未来自动驾驶技术的核心组成部分,而一套完善的自动驾驶功能除了依靠大规模的常年积累的道路测试,依靠数据中心的仿真测试和深度神经网络的训练不可缺少。
除了特定的传感器及决策技术之外,任何自动驾驶系统(包括车辆)的基础都是数据。未来的汽车数据生态系统将包括来自车辆的数据、内置在道路上的传感器、与附近车辆的通信、信息娱乐和其他来源。
这个数据生态系统非常复杂,涉及企业、平台和政府的多方。在过去的二十年中,随着汽车越来越依赖软件,汽车制造商已经意识到数据的重要性。
目前在车辆中已经有相当多的传感器,但数据类型、数据的复杂性、数据量与我们过去处理的相比,是惊人的。即使那些已经部署自动驾驶测试车的公司也只能收集非常少量的数据。
这其中除了数据中心的后台处理,还包括车辆端侧的数据处理能力的提升。近日,斯坦福大学的研究人员宣布一项能够基于AI摄像头来更快,更有效的进行图像处理分类技术。
目前,搭载L3级以上图像识别技术必须依赖于人工智能,同时在未来域控制器中运行深度学习算法的算力也要求太高,并且对于自动驾驶决策来说速度太慢。
这种新型的人工智能相机系统,能够更快、更有效地对图像进行分类,并且能够以足够小的体积以嵌入到端侧传感器设备中。未来的应用需要更快的速度和更小运算单元体积来处理庞大的图像流。
这款AI原型相机的第一层是一种光学计算机,它不需要高能耗的传统计算模式。第二层是传统的计算处理。光学计算机层通过物理预处理图像数据来操作,以多种方式对图像数据进行滤波。
通过定制的光学器件,这一层处理几乎是零能耗,这节省了系统大量的时间和资源,否则将被消耗计算资源。
其结果是计算量大大减少,对内存的调用更少,完成过程的时间也少得多。在跳过了这些预处理步骤之后,剩下的分析占用的计算资源就少很多。
在模拟和真实世界的实验中,研究小组使用该系统成功地识别了飞机、汽车、猫、狗等在自然图像设置内的物体。
实验室正在研究如何使光学元件做更多的预处理。最终,他们更小、更快的技术可以取代现在帮助汽车、无人机和其他技术学会识别周围环境的后备箱大小的计算机。
去年10月,Google在其发布会上推出了一款名为Google Clips的AI微型照相机,售价249美元。这款小巧的产品面向家庭场景,在功能上主要集成了机器学习技术,可对场景中的人物、宠物、环境等画面进行识别和分析,能够让摄像头发现适合拍摄的画面时进行自动拍摄。
GoogleClips在机身内部搭载了一块AI芯片,就是Intel旗下Movidius推出一款名为Myriad2的VPU(VisionProcessingUnit,视觉处理单元)。
Myriad2发布于2014年,作为一款视觉处理芯片,它的功能就是专门用于图像处理;其特点在于功耗很低,能够在半瓦的功耗下提供浮点运算功能,使用20纳米的工艺进行制造。
这也让行业看到了AI驱动摄像头技术的提升空间,尤其是在端侧的数据处理能力。
同样在去年11月,亚马逊AWS发布了一款名为DeepLens的人工智能摄像机,用以运行实时计算机视觉模型,为开发者提供机器学习的实践经验。
DeepLens拥有一颗计算能力为100gflops的英特尔凌动处理器,内置一颗400万像素摄像头,能够拍摄1080p高清视频。同时还具备8GBRAM、16GB可扩展存储容量,用于视频、预先训练的模型和代码的存储。
软件上DeepLens搭载了Ubuntu16.04LTS操作系统,且自带AWSGreenGrass云服务功能。内置的对象识别功能可以识别宠物、日常物品、特定动作,还可以训练AI模型识别更多的物体。
该摄像头可以运行预先训练或定制的人工智能模型来执行复杂的计算机视觉任务,如面部识别、情感分析或对象识别。
而在车载领域,不少初创公司和大公司也都在瞄准基于深度学习的摄像头视觉系统的研发,一方面在视觉端提升数据处理能力,另一方面在摄像头端进行数据预处理。
CalmCar(天瞳威视)目前推出的产品CalmCar Vision System,就是一套基于“深度学习技术”的人工智能视觉系统,搭载微型嵌入式芯片(GPU),拥有针对汽车视觉系统设计优化的深度学习架构。
这套视觉系统以提高部分遮挡物体的识别精度,解决了形变物体的识别问题,减少了光线变化对物体识别的精度影响。
多于30帧每秒的实时检测率,可实现140米车辆检测(可追踪到170米)、70米行人以及骑车人检测(追踪到80米)、80米行车线检测与追踪、路牌路标的检测与识别以及交通灯的检测与识别。
今年初,日本三菱公司推出了采用了自主研发的Maisart AI的新车载摄像头(用于替代传统外后视镜),它能够准确地区分行人、汽车和摩托车。后续版本还将解决恶劣天气、夜晚和曲折的道路上的性能表现。
Maisart AI是基于计算视觉认知模型的相对简单的算法为实时性能释放系统资源,为低成本设备实现紧凑型的人工智能处理能力。
以每秒60帧运行的2百万像素相机为例,每秒产生大约500兆字节的数据量。这些数据需要很快地分析和处理,以便实时响应。尤其是目前L2级以上自动驾驶每辆车配置的摄像头数量接近5-12个(包括车内车外),数量处理量巨大。
基于摄像头前端的数据处理模式,可以大幅降低数据传输和中央数据处理的占用。视频分析算法可以在未经压缩的原始图像上运行,然后通过以太网进行编码和传输。视频分析ADAS算法也不会遭受在压缩期间可能引入的任何噪点,并且保持它们的精度。
当处理移入前端摄像头模块时,入门级车型可以用较低成本的控制单元(ECU)。当客户选择例如驾驶员监视或自动停车选项时,摄像头模块可以简单地插入,并且不要求汽车制造商也将控制单元升级到更高性能、更高成本。这降低了车辆的总成本。
随着未来车辆搭载摄像头数量增加,以及相互之间数据处理量增大,如果没有在摄像头前端内部进行预处理,性能瓶颈将不可避免地出现在中央计算单元上。
一家位于德国的嵌入式视频处理器公司videantis,推出的嵌入式视频处理器体系结构可以以更快的速度和更低的功率水平执行这些复杂的机器视觉和图像处理任务,使得该技术能够嵌入到较小的ECU中,甚至直接嵌入到摄像头中。
videantis在今年初推出的新的V-MP6000UDX处理器,包括为运行卷积神经网络而优化的扩展指令集,提供的v-CNNDesigner工具,可以方便地移植使用诸如TensorFlow或Caffe等框架设计和训练的神经网络。
使用这个工具,实现神经网络的任务是完全自动的,并且只需要几分钟就可以使CNN在低功耗视频处理架构上运行,并且可以在同一平台上运行深度学习、计算机视觉、视频编码和成像。
相比目前市面上的同类产品,videantis可以做到在单一芯片架构上实现CNNs的全部层处理,而无需额外添加深度学习加速模块。
-
神经网络
+关注
关注
42文章
4771浏览量
100712 -
车载摄像头
+关注
关注
5文章
137浏览量
28068 -
深度学习
+关注
关注
73文章
5500浏览量
121111
原文标题:车载摄像头可以卖的贵一些 ,但要有料 | GGAI头条
文章出处:【微信号:ilove-ev,微信公众号:高工智能汽车】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论