2023年12月9日发(作者:中国石油价格最新价格)

自动驾驶汽车环境感知传感器研究

摘要:自动驾驶作为一个近年来在汽车领域热度越来越高的概念,众多企业和科研院所都将巨大的资源和热情投入到自动驾驶汽车的研发之中。自动驾驶功能由感知、决策和控制三个功能模块组成,而感知功能是实现自动驾驶的基础。本文主要研究自动驾驶汽车环境感知系统的相关内容。研究方向目前世界上有两种主流的感知传感器布置方案,一种是多传感器融合方案,另一种是纯视觉方案,本文阐述了两种方案的区别和各自的特点。最后,本文通过使用不同方案的两辆自动驾驶汽车的实际表现得出了在当前的发展阶段下两种方案的自动化程度高低。

关键词:自动驾驶汽车;感知系统;传感器;布置方案

1引言

自动驾驶功能主要有三个功能模块,分别是感知、决策与控制,而本文主要研究感知功能模块。感知功能是自动驾驶的前提,决策与控制都建立在感知系统收集的车辆周围的车道线、交通标识和信号灯、固定障碍物以及周围的行人与车辆等信息的基础之上。感知系统的主体是激光雷达、毫米波雷达、超声波雷达和视觉传感器这四种环境感知传感器,它们的功能各有侧重。

对于自动驾驶汽车的环境感知传感器布置,业界目前有两种主流的方案。其中一种是多传感器融合方案,大部分企业都选择这种方案;另一种是纯视觉方案,只有特斯拉等少数企业更看好这种方案。后文将会详述这两种方案的特点与区别,并且将对比分析二者的区别。

2环境感知传感器布置方案

2.1多传感器融合方案

使用多传感器融合的方案主要是因为单一类别的传感器不能面面俱到,多种传感器互相配合可以充分发挥各自的优势,而自身的短板又可以被其他传感器的长处补足。激光雷达在获取精确的三维信息方面具有无可比拟的优势,并且探测距离长、不依赖环境光照条件,但是它的性能在恶劣天气下会大幅下降。毫米波雷达可以提供精确的距离和速度信息,可以全天候工作,但分辨率较低。超声波雷达可以消除视野盲区,探测近距离的障碍物。摄像头可以获得彩色的视图信息,能够精确的识别事物,还能补充车内人员的视觉范围,但是不能精确探测障碍物距离,而且十分依赖外部光源。从以上对各类传感器特点的描述不难看出,它们的性能都有着独特的优势,而且存在明显的互补关系,这就促使相关企业选择多传感器融合方案。

多传感器融合是将来源不同的信息整合在一起,利用一种统一的规则进行分析,而不是各类传感器单独作用的简单堆叠。在进行信息融合时要将所有传感器的坐标系和时钟统一,目的就是为了实现同一个目标在同一个时刻出现在不同类别的传感器的同一个世界坐标处,这是多传感器融合的前提。当前提条件达成后,首先要获得不同传感器的分离观测信息,然后要在算法规则下对这些信息进行组合与分析,要提取尽可能全面的有效环境信息。除此之外,在设计多传感器融合方案时,要进行设计一定的性能冗余部分,要保证在某一种传感器因为环境原因或是人为因素全都出现故障的情况下,冗余部分也可以满足汽车安全行驶的条件。

激光雷达在获取三维环境信息方面的优越性能已经得到验证,在无法突破当下纯视觉方案难点的情况下,大部分相关企业都把以激光雷达为核心的多传感器融合方案视为走向高级别自动驾驶的有效途径,因此业界大部分公司都选择了这种方案。其中比较具有代表性的公司主要有谷歌Waymo、百度和福特-大众投资的Argo AI,近几年小鹏汽车、华为等公司也异军突起,走到了行业的前列。北汽极狐阿尔法S这个正处于风口浪尖的实例可以较为清晰地体现使用多传感器融合方案的自动驾驶汽车的发展情况。

2.2北汽极狐阿尔法S案例分析

北汽极狐阿尔法S的华为HI版是华为与极狐合作打造的一款智能纯电轿车,其上搭载华为HI全栈式智能汽车方案提供自动驾驶相关的一切硬件与软件产品。从极狐官方网站了解到该车型使用华为自动驾驶方案ADS,能够在高精地图覆盖的区域,实现开放路段点到点的自动驾驶,基本达到L4级别。 图1极狐S全车传感器配置

极狐阿尔法S安装的环境感知传感器包括三个激光雷达、六个毫米波雷达、十二个超声波雷达和十三个摄像头。其中,华为自主研发的混合固态96线激光雷达是这款车最大的亮点,三颗分别安装在车头的左前方、中间、右前方,视角可达到300°,探测距离达到200米。另外一个亮点是这款车安装了四颗前视摄像头,分别为长焦镜头、广角镜头和位于中心位置的双目摄像头。安装在车辆前后的远距毫米波雷达有效探测距离达到300米,上下探测角度达到30°,左右探测角度达到120°,成像面积是一般车载毫米波雷达两倍以上,车辆四角还安装了四颗角雷达。

图2极狐S激光雷达安装位置示意图

图3极狐S前视摄像头安装位置示意图

近日相关媒体发布了极狐阿尔法S在上海的开放路段自动驾驶实测视频,测试路段全长大约12公里,包括50%的主干道、30%的次干道和20%的居民区。阿尔法S在整个实测过程表现出的智能化水平都比较高,其中有四个场景比较典型。第一个场景是车辆从高架路段左转进入车城市路段时,模式切换十分迅速,并且遇到红灯时停车十分平稳,这也是华为ADS方案与蔚来NOP、小鹏NGP高速辅助驾驶的不同之处;第二个场景是车辆完成了多次无保护左转,车辆在左转过程中遇到对向来车和过马路的行人时会平稳减速等待对方通过;第三个场景是右转遇到抢道的电动车,车辆及时地感知到了左后方的抢道电动车,并且主动减速让行;最后一个场景是对向来车突然掉头,极狐阿尔法S依然选择了减速让行的应对措施。结合以上四个场景,可以看出极狐阿尔法S作为第一款搭载车规级激光雷达的智能汽车,选择的是安全为主的保守行车策略。

华为声称他们的ADS方案是完全对标国内城市环境来研发的,能够在全国各个城市基本达到L4级别。综合极狐阿尔法S的车辆配置和实测表现来看,一定程度上能够印证华为的宣传,也说明选择以激光雷达为核心的多传感器融合方案的厂商是可以制造出更高级别的自动驾驶汽车的。

2.3纯视觉方案

人类驾驶汽车用来感知环境的器官主要是眼睛,获得的大部分环境信息都是视觉图像信息,而驾驶员仅凭这些信息就已经能够正常驾驶汽车并应对各种行车环境。因此一些企业相信,自动驾驶汽车也可以像人类一样通过视觉信息和智能化程度足够高的控制单元就足以实现自动驾驶功能。相对于激光雷达,视觉传感器的感知能力相对较弱,要想达到同样的自动驾驶程度,纯视觉方案对控制单元智能程度的要求就相对更高。目前仍然坚持只使用纯视觉方案的厂商只有特斯拉,过去只使用纯视觉方案的Mobileye公司自2018年就开始与Luminar公司合作研发激光雷达,而过去走多传感器融合道路的百度也发布了使用纯视觉方案的自动驾驶汽车。当然,这并不代表Mobileye会抛弃纯视觉方案、百度Apollo会抛弃多传感器融合方案,目前还不知道到底哪种方案最终能够走到完全自动驾驶,但不管是哪种方案成为了时代潮流,Mobileye和百度都不会落后。特斯拉Model S的情况可以体现目前纯视觉方案的发展状况。

2.4特斯拉Model S案例分析

Model S是特斯拉的旗舰轿车车型,其上搭载了特斯拉的Autopilot智能系统。虽然特斯拉采用的技术路线叫做纯视觉方案,但这种方案只是以视觉传感器为主,也需搭配超声波雷达和毫米波雷达,与另一种技术方案最显著的差别就是不使用激光雷达。Model S上搭载有八个摄像头、十二个超声波雷达和一个毫米波雷达。

图4特斯拉Autopilot系统传感器覆盖范围

根据安装位置的差别,八个摄像头分为前视摄像头、侧方前视摄像头、侧方后视摄像头和后视摄像头,它们共同为车辆提供360°环绕视角。与阿尔法S类似,Model S的三个前视摄像头分别是鱼眼镜头、中等焦距镜头和长焦距镜头,它们的最大检测距离分别为60米、150米和250米,而它们的最大监测角度的大小关系正好相反。两个侧方前视摄像头分置车身两侧,其最大监测距离 为80 米、最大监测角度为90 度角,它可以监测两侧障碍物。侧方后视摄像头的最大监测距离为 100 米,用来监测车辆两侧的后方盲区。后视摄像头的最大监测距离为

50 米,不仅可以辅助驾驶员安全倒车,还可以在复杂泊车场景提供辅助驾驶。毫米波雷达的最大监测距离为 160 米,主要用来探测前方物体。超声波传感器的最大监测距离 为8 米,它们布置在车身四周,主要用于探测附近的车辆,还可以指引泊车。 图5特斯拉Model S前视摄像头安装位置

特斯拉宣称Autopilot 自动辅助驾驶系统配套的硬件设施足以满足L5级别自动驾驶汽车的需求,但是自Autopilot系统发布以来,全球范围内已经有多辆Model S发生了严重的交通事故。影响最大的一起事故发生在2016年,佛罗里达州一辆Model S在自动驾驶时将反光的白色货箱识别成了白云,直接撞击一辆正在转弯的货车,事故导致车辆驾驶员当场身亡。这起事故不仅大大降低了特斯拉的信誉和消费者对特斯拉的信任,还让业内其他企业对开放自动驾驶功能保持谨慎的态度。除此之外,今年美国有多名特斯拉车主反映车辆在空旷地带显示四周有行人和公交车,特斯拉售后人员表示是传感器侦测失误。特斯拉作为纯视觉方案的忠实拥护者和领军者,其发布的自动驾驶系统的实际表现有些不尽人意,与使用多传感器融合方案的自动驾驶系统有比较明显的差距。上述的种种情况说明目前纯视觉方案在软件方面陷入了困境,仅靠车载电脑的智能化还不足以支撑感知方面相对弱势的纯视觉方案走向高级别自动驾驶。

3仿真模拟方法

软件仿真模拟是自动驾驶领域的企业在进行传感器研究的常用手段,是利用计算机模拟出符合物理规律的环境信息来验证传感器性能的技术。相比与直接使用实车测试,软件仿真模拟具有很多优点:验证新算法的可行性时,软件仿真可以随时构建不同的环境情况来测试算法性能,比直接实车测试更安全;在进行深度学习时,软件仿真可以模拟出现实世界中不同的气候条件、大量的复杂行车环境,节省了大量的成本和时间。 自动驾驶仿真平台通常包括静态场景还原、动态案例仿真、传感器仿真、车辆动力学仿真等功能,并且需要接入算法开发平台的接口。在进行自动驾驶仿真模拟时,首先建立道路、车道线、交通标识、行道树、气候、光线等静态环境和一定密度的机动车、行人和非机动车等动态信息,然后根据实际测试车辆设置合适的仿真车辆的动力学参数,接下来按照测试将要求类别和数量的传感器安置在一定的位置并且仿真出各个传感器接收到的物理信号,最后根据接入的算法对处理信息,模拟在特定配置和环境条件下自动驾驶汽车的行驶情况。仿真平台输出的结果通常包括车辆在整个行驶过程中的加速、刹车和转向的状态,以及是否在过程中有压实线、闯红灯、未达到终点、碰撞车辆或行人等非安全驾驶行为,还有直观的从起点到终点的车辆行驶3D演示动画。

目前市面上比较主流的自动驾驶仿真平台主要有Airsim、Prescan、Apollo、Carsim、Carla等软件,而通常接入这些软件的算法平台是Matlab。自动驾驶仿真模拟已经广泛地应用于自动驾驶汽车研发之中,宝马、奥迪、一汽、丰田等车企以及英伟达、博世、大陆等传感器供应商都与这些仿真平台建立了合作关系。

4方案对比分析

其实纯视觉方案和多传感器融合方案作为两条不同的技术路径,并没有明显的优劣之分,只是各自的关键技术的发展水平决定了它们现在的处境。纯视觉方案实现高等级自动驾驶十分依赖车端高度智能化,但是现在使用纯视觉方案的公司还不能开发出能够赋予车载电脑推理和联想能力的算法,更多的是通过大量的学习和记忆来逐渐接近人类的驾驶行为。特斯拉在算法学习时具有一定的优势,特斯拉生产的汽车都安装有內视摄像头,所有特斯拉的车主在驾驶过程中做的所有决策都会被记录,当人类的决策与自动驾驶系统的决策在某种情况下不同时车载电脑会将人类在这种情况下的决策行为传输回特斯拉的研究机构。特斯拉通过海量的车主驾驶数据进行神经网络训练,从而不断覆盖更多的工况与场景,达到视觉算法无限接近人类判断的目的。但是在中国这种行车环境复杂的地方,很难通过深度学习算法来覆盖所有场景,这也是纯视觉方案的技术瓶颈。而激光雷达在三维环境探测方面有得天独厚的优势,它只需要还原出车辆周围的三维景象,再加上其他传感器的监测信息就可以决定车辆下一步的行为。多传感器融合方案的优势相当于绕开了纯视觉方案算法上的瓶颈,制约这种方案大规模量产的主要问题是激光雷达的成本。但是华为自研的96线混合固态激光雷达的量产成本已经降至两百美元左右,大疆也宣布正在研发目标成本在两百美元左右的128线固态激光雷达,很显然成本问题已经不再是激光雷达上车的障碍,中国就有极狐阿尔法S、小鹏NGP、蔚来NOP三款量产车上市。

虽然马斯克多次在公开场合将激光雷达贬低得一无是处,并且坚定地选择纯视觉方案,但是已经广受认可的激光雷达显然并不像他所描述的那么不堪,或许曾经激光雷达高昂的价格也是促使他坚定反对激光雷达的原因之一。纯视觉方案的前景十分广阔,如果通过纯视觉方案达到完全自动驾驶,那么车载电脑的智能程度将会提升到拥有一定的思考、推理和联想的能力,而不是僵硬地按照设定的程序做出相应的反应,但是这种方案面临的算法瓶颈需要大量的时间去突破。根据现在的发展形势,多传感器融合的方案将会在未来几年迎来快速发展,但纯视觉方案也不会被抛弃,而是会在经过长时间的技术积累之后继续发展。最新消息是特斯拉将在HW4.0上采用4D毫米波成像雷达,这一消息也从侧面验证了多传感器融合的优势。

4总结

本文详细论述了实现高等级自动驾驶的技术方案的特点与典型实例等内容。自动驾驶汽车环境感知传感器所涉及的内容已经十分广博,但这仍然只是自动驾驶的基础,决策模块和控制模块所包含的知识更加博大精深。目前的自动驾驶汽车智能化程度并不高,它不具有人类类比、推理和联想的能力,因此它只能在一些程序已经设定好的特定场景做出合理的应对,但是现实中道路环境纷繁复杂、变化几乎无穷无尽,现在的神经网络模型很难将其完全拟合出来,那么自动驾驶汽车在复杂环境中极易做出不合人类逻辑的行为,甚至会造成危险。所以利用激光雷达和高精度地图绕过技术壁垒无疑是快速提高自动驾驶水平的好办法。但是也不能完全放弃纯视觉方案的研究,而是逐渐积累技术,以期打破瓶颈。

虽然要想实现完全自动驾驶还面临着很多方面的考验,但是近几年自动驾驶技术已经有了可观的提升。传统车企比较倾向于自下而上实现自动驾驶,因为他们需要让顾客亲身体会到技术正在逐渐进步,消费者才能对自动驾驶保持信心,他们也可以获得更多利润。互联网公司则更喜欢直接实现高等级自动驾驶,因为他们不需要通过销售整车获利,只需要将新技术提供给传统车企就能够得到大量收益。但不管是哪种发展方式都促进了自动驾驶技术的发展,让自动驾驶的概念更加深入人心。

参考文献:

[1]孟立辉,刘卫国,庞立江.汽车自动驾驶原理及关键技术分析[J].石家庄理工职业学院学术研究,2019,14(3):15-19+23.

[2]邓雅晨.合纵连横进行时,自动驾驶 六大联盟实力几何?[J].中国汽车市场,2019(3):59-61.

[3]张引. 面向自动驾驶防撞预警的物体识别和定位[D].昆明理工大学,2019.

[4]钟海兴. 特定场景下智能车的融合定位及导航策略研究[D].华南理工大学,2019.

[5]郝俊.自动驾驶环境感知系统研究[J].时代汽车,2018(9):15-16.

作者简介:李兆丰(1978.4——),男,汉,浙江杭州人,本科,学士,研究方向:汽车智能座舱及辅助驾驶软件开发

更多推荐

驾驶,自动,方案,传感器,汽车,环境,视觉,感知