你的浏览器版本过低,可能导致网站不能正常访问!为了您能正常使用网站功能,请使用这些浏览器。
chrome
Firefox

工具栏

主动安全,“刹住”才是最好的保护

汽车的安全性,除依赖于车体材质的强健与合理的结构设计外,还依赖于汽车的主动安全性。相比于事后的被动防护,预先辨识并预测危险,规避危险,是一种更高效、更安全的应对方法。得益于第二代技术平台的智能优势,蔚来旗下的每一款车型都具有很强的主动安全功能,可以在各种复杂的场景中,实现对碰撞风险的识别以及制动的控制。蔚来ET5T在“2023中国国际智能产业博览会”上荣获“2023i-VISTA智能网联汽车大赛”的冠军,并荣获了110公里/h的“极限刹停成就奖”。

在110 km/h的高速条件下,如何对车辆发生的事故进行远程预判,实现车辆的安全制动?在今天的科技 Talk节目中,我们将邀请到蔚来汽车自动驾驶技术研发组的俞文先生,为您带来一份关于ET5T紧急刹停时,所展现出的超强安全性。

一套完善的刹车系统,大致要经过如下的过程:第一,汽车的感测设备必须预先察觉到道路上有障碍物;其次,根据采集到的车辆状态信息,通过判断车辆状态,自动发出制动命令;然后再启动汽车的刹车系统,让汽车停下来。

汽车感知设备是实现极限刹车的首要环节,它对识别道路上可能存在的危险具有重要意义。传统的汽车辅助系统,其感测设备一般位于汽车前保险杠、前进气格栅或中间后视镜底座等位置,存在很大的视觉盲区。大部分都是一个200 W像素的摄像头,一个毫米波雷达。所以,它只能拥有非常基本的感知识别能力,只能对单个的车辆或者行人等简单场景以及障碍物目标进行短距离监测。而传统的驾驶辅助系统的感知模型也缺乏目标数据的训练,导致在识别后不能进行稳定的跟踪。一旦遭遇诸如人车相交、车速过快等复杂情况,感知系统将无法对障碍物进行有效检测,致使汽车刹车功能不能及时、平稳地反应,造成交通事故的发生。

以ET5T在此次挑战赛中所面对的极限场景为例,在110 km/h的障碍物刹停场景下,车辆系统要在130 m之外的距离上,提前监测到目标,并对多源传感器的信息进行融合与跟踪,才能对车道前方静止的人车叠加的障碍,实现稳定刹停避撞。

那么,110公里每小时的急刹,出现的几率有多大?确实很多。

不管是在高速公路,还是在城市的高架路上,或者是在公路上,经常会有一些汽车出现故障,然后被停在路边的事情发生。此时,汽车上的驾驶员很有可能会从车上下来,做一些类似于打开后备箱取东西、放置警告牌子等行为。如果后面的车在同一车道上,驾驶员由于注意力不集中等原因,没有提前刹车,就会由于来不及减速而造成撞车。

在所有蔚来车型的标配 Aquila蔚来超感系统的帮助下,ET5T搭载了33个高效能的传感器,可以更准确地识别出车体附近的障碍物。其中,ET5T车顶了望塔内装有一颗超远距离高精度激光雷达,在车辆行驶的过程中,激光雷达会对目标障碍物发出一道激光束,以接收目标反射回来的激光信号,并通过对激光信号的往返时间进行计算,从而对目标的位置、速度等特征量进行探测。通过大批量、多场景的数据训练,激光雷达可以对复杂场景、异型障碍物场景、以及远端场景下的类别、位置及动态参数信息进行精确识别,因此,在110 km/h远距离人车交叉场景中,可以对距离自车230 m的前方静止车辆进行预先监测。

由于其诸多优点,激光雷达在车辆行驶过程中具有非常重要的地位,同时也是实现高水平智能驾驶所必须的传感器。

抗干扰能力强,可以弥补在恶劣天气、黑暗光线等条件下,其他传感器(例如摄像头)的性能损失,从而达到多源感知冗余的效果。

*在机器视觉、图像处理中,被处理图像中用户或者算法关心的区域被称为 ROI,比如:面孔,车辆,移动物体等。当执行影像处理时,可只操作感兴趣区域并转移,以减少负荷。

现有的视觉模型在对障碍物进行监控时,存在着难以实现多相机联合、监控效果不佳等缺陷。该方法只能实现大型对象的识别,而对于体积较小,如行人、自行车、摩托车等的 VRU对象(弱行人),其识别与移动轨迹的准确率较低。

基于 LiDAR与相机的多源传感器融合技术,能够利用两种传感器同步采集的海量数据,提高传感器的探测效率,并为系统的决策提供重要的参考依据。但是,这也导致了关联的难度增加。在后处理过程中,利用三维欧氏距离及三维 IoU*对数据进行相关性判定。然而,目前已有的基于视觉的定位方法存在定位不稳定性,与 LiDAR的定位结果存在差异,造成了多源数据的关联与融合。此外,由于多个相机拍摄下的目标三维信息在各帧间的一致性较差,使得目标的位置感知存在很大的抖动。

所以,蔚来公司是怎么处理这件事的呢?

从巴斯夫2.0.0开始,蔚来汽车已经完全采用了 BEV的感知模式。蔚来公司的 Aquila超感系统,凭借着塔式的传感器布局,成为了行业内唯一一款通过 BEV网络将车辆中的所有传感器模块进行整合,从而实现对多个传感器的深度融合,并对其进行稳定的跟踪。本项目的研究成果不仅可以有效地提高三维目标监控的准确性,而且可以获得运动目标的速度、加速度、角速度等时间序列信息。

目前,占位格栅已经被 Bayan2.0应用于实际,对于那些无法提前确定分类的特定交通要素,将会被占位格栅进行处理,并将其作为环境信息的一部分,交给自动驾驶系统来判断。通过大规模多场景数据的训练,实现了对远程障碍类型、位置和动态参数的精确辨识。不仅仅是对目标的识别。即使是在时速110公里的复杂路况下, BEV也具有良好的辨识能力,能够很好地实现对车辆的精准感知。

三十三个高级感应器,包括激光雷达、800 W高清摄像机、毫米波雷达,就像是ET5T的“天眼”和“耳朵”一样,可以根据自己的习惯,根据自己的习惯,将感知到的信息反馈给对方。为了应对8 GB/s的数据量,ET5T的超级大脑也是必不可少的,它采用了四枚 NVIDIAOrinX芯片,运算能力达到了1016 TOPS,并配备了一条高速的图像处理流水线,以及一条超大带宽的数据链路,以及一套完整的热备份系统。

Aquila蔚来超感系统可以对多种类型的交通参与者和通用障碍物进行精准识别。 Adam蔚来超算平台将自车的动态信息相融合,将多源传感器信息融合,跟踪预测动作轨迹,做出精准的控制指令。同时,它还会在整个执行过程中,通过博弈,对自己的控制策略进行实时调整,从而在紧急情况下,给出最合理、最安全的控制策略,使车辆能够做出适当的响应和控制。例如,一种融合算法,要求在特定的频率下,能够稳定、一致、精确地输出下列信息。

如何获得稳定、一致和精确的融合结果,是一个亟待解决的问题。例如,由于外界输入不同而产生的不确定。激光雷达的扫描时间,模型的推理时间,算法的后处理时间,以及信息传输的时间,都会造成计算的延迟。同样的,相机也是如此,曝光时间,模型推理时间,数据传输时间,各种因素,都有可能造成相机拍摄的延迟。

这些客观因素将导致从多个源中提取出的数据在时间上存在一定的差别,这将导致来自上游数据源的数据不能以“先到后到”的顺序被提取出来。由于初始观察结果与输入到融合优化算法中的信息存在着时序上的差别,因此,对于输入到后期的初始观察信息,算法需要做出是否抛弃。所以在工程阶段,要比单纯的输入和输出,更加的复杂。

藉由上游所提供之环境资讯,系统之决策与计划控制模组,可依系统所提出之运作策略,产生最优化之运作模式。在110 km/h的障碍物刹停场景中,一方面,需要对车辆进行横纵向的控制,即:在横向上,继续平稳地控制车辆居中行驶,与此同时,纵向上要求整车减速,整车执行器能够及时地对减速请求做出反应,以确保车辆最终能够平稳地刹停,避免发生碰撞。在此基础上,提出了一种基于人-机交互的提示方法,以实现对司机的实时提示,并在此基础上提出了一种基于人-机交互的提示方法。

在“那一脚”结束时,我们还设置了两项经验指标来实现顺畅的刹车。在保证安全的情况下,制动的力道和制动的距离要适当,尽量实现“无惊无险”、舒心、舒适的境界。

首先,就是准确的制动时间。在系统选择了目标之后,决策模块对障碍物的风险进行了判断,规划模块展开了合理的行为规划,控制模块则可以及时地输出控制指令,比如减速控制,声光警告提醒等。

其次是制动力丝般的平滑。在确保安全的情况下,要尽量考虑到使用者的体验,不能太早的滑动刹车,不能太迟的刹车,不能太迟的刹车,不能太迟的刹车。

从感知、计算和执行硬件,到背后的算法、模型和机器学习的完整体系,让ET5T可以从危险识别,预警,执行干预,到后续安全控车,整个人机交互过程一气呵成,帮助用户在遇到风险的时候,可以更从容的得到信息输入,车辆可以快速执行安全策略,确保在紧急情况下可以成功避险。

内容由作者提供,不代表易车立场

收藏

收藏成功 ! 去易车app查看收藏文章

猜你想看

+加载更多

活动推荐

广告
  • 奖 
  • 抢 
  • 奖 

CopyRight © 2000-2023 BitAuto,All Rights Reserved. 版权所有 北京易车信息科技有限公司    购车咨询:4000-168-168 (周一至周日 9:00 – 21:00) 法定假日除外