专栏算法工具链雪岭 · 7类最极端场景——最新智驾安全强制标准分析

雪岭 · 7类最极端场景——最新智驾安全强制标准分析

巴山夜雨2025-10-22
16
0

2025年6月4日,全国标准信息公共服务平台公示关于征求《智能网联汽车 组合驾驶辅助系统安全要求》拟立项强制性国家标准(以下简称标准)项目意见的通知。

该标准由工信部提出,委托全国汽车标准化技术委员会智能网联汽车分会执行。本项目周期22个月,于2024年3月22日申报。公示开始日期为2025年6月4日,公示截止日期为2025年7月4日。
图片

该标准对组合驾驶辅助系统的安全性,做了详细的要求。其中包括大量常见的驾驶辅助系统弱势场景(或者称为极端工况、边缘工况、Corner Case等),例如:特殊目标的识别,包括侧翻的车辆、锥桶、水马、隔离桶、纸箱等,以及特殊的道路,包括隧道、弯道等,和突然切出、“鬼探头”等极端工况。

并且,很多测试项都要求同时在白天(光照强度不低于2000 lx)和夜晚(光照强度不高于1 lx)、雾天、雨天都进行测试。

图片
驾驶辅助系统通常由感知、决策和控制三大部分组成,不过其面临的弱势场景,主要的难点是感知。绝大部分驾驶辅助系统的失效,都首先是感知系统的失效。
驾驶辅助系统对于感知要求,简单点说,就是:“快”、“准”、“稳”,具体是指:
  • “快”:检测速度快,在一些极端工况,例如弯道、突然切出、“鬼探头”等,可以迅速识别危险目标。
  • “准”:检测目标准确,检测的距离、速度、角度信息精度高。
  • “稳”:对于各种目标能够稳定检出,例如侧翻的车辆、锥桶、水马、隔离桶、纸箱等。能够适应不同的光照、天气情况,检测稳定,不漏检、不误检。

 

感知系统主要的失效模式是:检出过晚、检测不准、误检、漏检。
其中最危险的是检出过晚漏检,标准中列举的极端工况,大部分也是围绕这两点进行设计。
本文选取标准里面提到的7类最极端工况,从感知的角度尝试进行一下场景分析,以及讨论驾驶辅助系统感知的三个主力传感器(摄像头、激光雷达和毫米波雷达)的应对方案。

 

01

隧道内故障车

1. 场景要求

标准中设置了多个隧道内故障车的场景,具体如下:

图片

2. 场景分析

这个场景对于摄像头(可见光)的挑战主要是:

1)隧道内外光照强度差异较大,对于摄像头的动态范围要求较高;

2)隧道内车辆不是正常角度,尤其是侧翻的车辆,这类目标训练集往往较少,漏检的概率较大。

动态范围不足的摄像头在隧道进出时,会短暂“致盲”,即常说的“黑洞”和“白洞”效应:

图片
图片

在“致盲”时间内,如果道路中有车辆或者障碍物,非常容易发生事故,例如:

图片

3. 应对方案(摄像头)

“黑洞”和“白洞”效应的主要原因是摄像头的动态范围不足。

一般的手机摄像头动态范围在60dB左右,工业相机的动态范围为90dB,而车载摄像头需要达到120dB以上。而如果要适应隧道这种光照剧烈变化的场景,动态范围需要140dB以上。

隧道场景下,动态范围不同的摄像头检测效果对比如下:

图片

目前业界在采用各种方案,提升摄像头的动态范围,例如多曝光合成技术(多帧合成)、大小像素/双增益分层技术、LOFIC(横向溢出积分电容)技术、以及AI ISP技术等等。

1)2023年,豪威科技推出了800万像素CIS——OX08D10,该芯片采用OmniVision TheiaCel™技术,实现了140dB的高动态范围。
图片

TheiaCel™技术主要采用OmniVision的DCG™高动态范围(HDR)技术和横向溢出集成电容器(LOFIC)技术:

图片

TheiaCel的原理示意如下:

图片

这种方法就像用一个水桶来接雨水,如果雨水溢出了水桶,使用一个更大的盆来装多余的水。“桶”内的信号可以非常精准地读取,因此能够实现出色的低光表现。而溢出的盆中则容纳了所有超出的部分,从而扩展了动态范围,并具备捕捉明亮物体和场景真实色彩的能力。整个像素区域可应用于低光条件,而在亮光条件下不会饱和。

小鹏使用豪威OX08D10开发了“AI鹰眼视觉系统”:

图片

 

2)同样在2023年,安森美也推出了基于超级曝光技术的AR0823AT,该芯片具有8.3M的分辨率,可以实现150dB的动态范围。
图片

安森美早期使用大小像素技术来实现HDR,不过,由于大小像素技术会导致图像质量下降、暗噪声增加以及性能降低,尤其是在较高温度下表现更为明显。安森美目前主要采用超级曝光技术(Super Exposure),也被称为溢出多重曝光技术,该技术和LOFIC原理类似。

两种技术性能对比如下:

图片

图片来源:安森美

AR0823AT的感知效果对比:

图片

图片来源:安森美(下图是AR0823AT,上图是其他产品)

4. 应对方案(激光雷达)

摄像头是一种被动感知器件,感知效果会直接受到环境光的影响。

相对来说,激光雷达是一种主动感知器件,通过主动发射红外激光束进行探测,因此环境光照强度的变化,对激光雷达影响较小(强日光直射,也会对激光雷达有一定影响)。

例如,AT128激光雷达在隧道出口的检测效果:

图片

图片来源:禾赛科技

在黑夜强光照射,也不影响周围目标的检测:

图片

图片来源:速腾聚创

5. 应对方案(毫米波雷达)

毫米波雷达同样是主动感知单元,和激光雷达不同的是,毫米波雷达是通过发射毫米级别波长的电磁波进行探测,环境光线的变化对于毫米波雷达没有影响。

不过,由于隧道是密闭空间,因此电磁波在隧道内的多径效应更为严重,多径导致的大量虚假目标,会影响真实目标的判断。

多径效应的示意图:

图片

 

02

施工路障

1. 场景要求

施工路障是驾驶辅助系统常见的弱势目标,标准中设置了多个测试场景,如下包括按照一定角度拜访的锥桶、水马和隔离桶。

图片

为了进一步增加难度,标准中还设置下面两种场景,在临近车道放置了静止车辆和来向运动车辆。对于这样的场景,驾驶辅助系统只能刹停,不能转向避撞。如果是在晚上,由于有对向车辆,没有拉起远光灯的话,感知识别的挑战会更大。

图片
图片

另外,标准中还增加了改道的施工场景:

图片

这个场景和2025年3月29日小米SU7的事故场景非常类似:

图片

2. 场景分析

施工场景往往比较复杂,障碍物形态各异,由于训练集的缺乏,对于视觉的识别有较大的挑战。

此类事故经常发生。2025年5月19日,李某驾驶一辆新能源小汽车开启驾驶辅助功能,来到一处弯道路段时,车辆并未正常入弯,而是直冲左侧的防撞水马:

图片

2024年10月4日,一辆特斯拉在开启Autopilot辅助驾驶功能时,撞入了施工区域:

图片

图片来源:观察者网

2025年3月29日,一辆小米SU7在安徽德上高速公路池祁段发生交通事故,造成车上3名女大学生不幸死亡,事故发生前车辆处于NOA智能辅助驾驶状态。

图片

 

3. 应对方案(摄像头)

对于摄像头来说,需要在训练感知模型是增加足够的相关样本,确保识别的准确性。

2022年,特斯拉提出了Occupancy Network(占用网络),将占用网格技术推向了自动驾驶等领域的前沿应用。该技术可以直接判断道路是否被占用,而不被白名单物体所限制。

图片

4. 应对方案(激光雷达)

对于激光雷达来说,由于测距范围和测角精度比较高,对于这些物体的识别能力较强。

图片

图片来源:速腾聚创

5. 应对方案(毫米波雷达)

对于毫米波雷达来说,有些障碍物(例如水马)对于电磁波的反射率有可能较低,有可能发生漏检。

 

03

小目标

1. 场景要求

车道上放置了褐色纸箱,长宽高分别是50cm*50cm*50cm。

图片

2. 场景分析

标准中的这个场景主要考察驾驶辅助系统对小目标的检测能力。

在快速路上,尤其是高速上,撞击或者碾压小物体,同样可能非常危险。例如车辆碾压一个啤酒罐之后,车辆失控:

图片

3. 应对方案(摄像头)

摄像头对于小目标的检测有相当大的挑战,一方面还是训练数据集的问题,训练集中可能根本没有这类目标。另一方面,由于小目标体积较小,摄像头分辨率不足,反映到图像上可能只有几个像素,很难识别。

提高摄像头的分辨率,能够进行一些改善,提升对远距离小目标的识别能力。

1)2023年9月,Sony发布1742万像素的CMOS图像传感器IMX735。对于远距离目标的识别更清晰:

图片

图片来源:索尼

清晰度对比:

图片

图片来源:索尼

2)2024年10月30日,豪威发布了采用TheiaCel技术的OX12A10,这是一颗1200万像素CMOS传感器。豪威科技表示,OX12A10将于2025年第三季度投入量产。

图片

4. 应对方案(激光雷达)

激光雷达也需要提升分辨率,用于提升小目标的检测能力。

禾赛和速腾都已经发布了超过1000线的高线束激光雷达,即禾赛的AT1440(1440线)和速腾的EM4(1080线):

禾赛的AT1440检测效果:

图片

速腾EM4的检测效果:

图片

千线激光雷达成本比较高,另外对于系统通信带宽和处理能力,也有相当大的压力。

5. 应对方案(毫米波雷达)

如果小目标是金属材质的,对于毫米波雷达的检测会更为容易一些。

例如,4D成像毫米波雷达检测250米之外的可乐瓶:

图片

图片来源:傲图科技

Mobileye采用PMCW技术开发的4D成像毫米波雷达,可以稳定检测和跟踪237m处的低矮木质货物托架:

图片

图片来源:Mobileye

由于毫米波雷达的噪点较多,小目标或许可以提前检测,但是在实际应用中,目标的稳定性以及和噪声的区分度,会决定实际的应用效果。这个实际使用的过程中,还是有相当大的挑战。

 

04

强弱目标混合

1. 场景要求

标准中设计了几个强弱目标的合并场景,例如在纸箱子旁边增加了一个车辆目标:

图片

以及,行人站在静止车辆的后面:

图片

2. 场景分析

小目标单独检测本来就比较困难,如果还有大目标(或者强反射目标)在旁边,由于会有混叠,将会进一步增加检测的难度。

2022年8月10日,一辆小鹏P7在宁波市高架桥路段最左侧车道快速行驶,随后撞上一辆停靠在同一车道的故障车辆,并且将站在故障车尾部的人员撞飞。

图片

3. 应对方案(摄像头)

对于摄像头来说,如果小目标和车辆目标混叠,由于训练集的不足,有可能导致视觉漏检。

4. 应对方案(激光雷达)

这种场景对于激光雷达检测没有影响。

5. 应对方案(毫米波雷达)

对于分辨率较低的毫米波雷达,大小目标合并的场景对于小目标很容易漏检。

分辨率对于目标检测的影响示意如下:

图片

4D成像毫米波雷达通常角分辨率更高,大小目标的区分能力会更强。

 

05

弯道内静止目标

1. 场景要求

标准中设置了S型弯道内存在静止目标的场景,静止目标包括静止的车辆、摩托车、自行车和儿童:

图片

2. 场景分析

当道路有弯曲时,由于道路遮挡或者车辆的姿态的原因,目标进入智驾系统的感知区域较晚:

图片

类似的,车辆在上坡时,对于对向车辆及坡道上的其他障碍物会检测较晚。

图片

3. 应对方案

这种场景由于超出传感器感知范围,感知单元能做的是尽量增大水平和垂直FOV,尽量减小盲区,从而尽早提前发现危险目标。

更重要的是,在智驾策略中,当识别到类似路况时,需要提前降低车速,给感知单元预留足够的检测时间。

 

06

前前车静止,前车突然切出

1. 场景要求

该场景是前面移动的车辆突然切出,而前前车是一个静止车辆。

图片

2. 场景分析

该场景有时也被称为“消失的前车”,由于前车的突然切出,往往会导致后车来不及反应,是一种非常危险的工况,因此相关事故也经常发生,例如:

图片
图片

3. 应对方案(摄像头、激光雷达)

由于有前车遮挡,视觉和激光雷达很难检测前前车。

能做的还是提高检测速度,在目标出现之后,以尽量短的时间完成检测。

4. 应对方案(毫米波雷达)

毫米波雷达的电磁波由于有反射特性,可以通过多径效应,检测“前前车”。

图片

图片来源:大陆汽车

检测前前车的毫米波雷达:

图片

图片来源:华为

不过,由于很多噪声也是由于多径导致的,通过多径生成的目标强度一般较弱,很容易被当做噪点滤除。另外,如果前前车是静止的,毫米波雷达的检测难度将更高。

 

07

静止车辆后横穿

1. 场景要求

这个场景就是通常讲的“鬼探头”。

图片
图片

2. 场景分析

“鬼探头”在交通事故中非常常见:

图片
图片
图片

3. 应对方案(摄像头、激光雷达)

这类场景对于摄像头来说,较难处理。

之前有观点提到,摄像头可以透过旁边静止车辆的玻璃,来提前识别横穿的车辆或者行人,实际上这个实现起来非常困难。

对于激光雷达来说,也没有太好的方法。

主要能做的还是提高检测速度,在目标出现在FOV范围内之后,以尽量短的时间完成检测。

4. 应对方案(毫米波雷达)

相对来说,毫米波雷达可能有机会更早的检测目标。借助于电磁波有衍射和绕射特性,可以一定程度的检测障碍物之后的目标:

图片

检测示意图:

图片

 

08

感知系统的持续进步

标准中提到的“危险工况”很多,再叠加不同的光照和天气要求,组合得到的测试案例会更多。不过,相对于真实世界中的“危险工况”来说,这些案例仍然是冰山一角。

如何保证智驾系统的安全,是一个需要长期研究的命题。其中,感知系统的性能,很大程度上决定了智驾系统能应对多少“极端场景”。

 

摄像头、激光雷达和毫米波雷达作为驾驶辅助系统的主力传感器,工作过程各异:

图片

每种传感器各有优劣势:

图片

 

1. 摄像头

摄像头的感知信息最为丰富,是唯一一个可以同时检测目标的形状、颜色、交通灯、路面标志的传感器,是驾驶辅助系统(乘用车)感知系统的绝对主力。

目前车载摄像头的主要发展方向是:

1)高分辨率。目前车载摄像头CIS分辨率在不断提升,前向主摄像头分辨率正在从5M升级到8M,甚至12M、15M甚至17M。分辨率越高,摄像头的空间采样能力越强,能够捕获更丰富的图像细节信息,对于目标检测与识别任务(如行人、车辆、交通标志等)准确率的提升,具有显著作用。
2)高动态范围(HDR)。车载CIS需要120-140dB甚至更高的动态范围,高动态范围能够显著提升摄像头在极端光照条件下的成像性能,例如在隧道出入口、强阴影区域或夜间复杂照明环境中,确保图像中明暗部分的细节均得到清晰呈现。
3)高信噪比(SNR)。高信噪比的摄像头能够在复杂光照条件下(如低光环境或高噪声场景)显著抑制噪声干扰,提升图像的清晰度和细节还原能力。在例如夜间、隧道或雨雪天气情况下,有效降低图像噪声,确保目标物体(如行人、车辆或交通标志)的清晰捕捉。
4)LED闪烁抑制(LFM)。LFM技术可以避免信号灯、LED灯牌等以90Hz频率闪烁造成图像采集干扰,例如安森美采用的“超级曝光”方案,以及豪威、索尼采用的“大小像素”技术,均旨在提高识别的准确性。
5)低照度敏感性。夜间行车虽仅占总交通量的25%,却造成近一半事故,CIS的夜视能力尤为重要。当前主流方案涵盖微光夜视、被动红外夜视等,可以实现在400~1100nm的宽光谱范围内实现图像捕捉。
6)高帧率。高帧率能够显著提升动态场景的目标感知能力,使系统能够更精确地还原高速运动目标的轨迹,并在环境快速变化时,实现更低的响应延迟。例如在高速行驶或复杂驾驶场景(如高速公路变道、紧急避障等)中,高帧率可确保关键运动信息的完整捕获,为决策系统提供可靠的时间序列数据支持。
7)宽视角(FOV)。宽视角摄像头能够覆盖更宽的空间范围,在近距离Cut In、弯道、上下坡等场景,可以更早的发现目标,提升行车安全性。

 

不过,作为一种被动感知部件,感知效果必然会受到环境的影响。在低光照、高动态、低纹理环境,以及雨雾等恶劣天气下,目前的改进方案只能尽量的减小性能衰减,而很难彻底避免。

 

2. 激光雷达

激光雷达通过主动发射红外激光束,通过ToF或者FMCW原理,来进行目标测量。由于是主动感知单元,激光雷达受环境光照强度的影响很小,甚至环境光照越低,激光雷达的检测效果越好。

图片

图片来源:摩尔芯光

同时,激光雷达是目前所有感知单元中,距离和角度检测精度最高的传感器,对于物体的形状不敏感,因此是最容易检测各类障碍物的传感器。

目前激光雷达的主要发展方向是:

1)高线束。目前速腾和禾赛都已推出了超过千线的激光雷达,可以实现超过250万的分辨率。
图片
2)高集成度。线阵VCSEL+SPAD-SoC方案正在成为半固态前向主雷达的主流方案,SPAD-SoC将大量分立器件集成,提升了激光雷达的集成度,简化了硬件设计。
3)纯固态化。纯固态激光雷达进一步提升集成度,完全消除了运动部件。基于OPA、偏振等的扫描方案正在研发,将彻底终结纯固态Flash激光雷达的大角度和远距离的矛盾。
4)FMCW技术。FMCW激光雷达的每一个点都有速度信息,具有测量距离远、抗干扰能力强、信噪比高、动态范围广以及恶劣天气适应性更好等优势。
图片

 

激光雷达受到雨雾影响也比较大,对于高反目标经常会出现高反膨胀、鬼影等问题。高线束激光雷达的成本还比较高,纯固态激光雷达短期内还无法解决大角度和远距离的矛盾。

 

3. 毫米波雷达

在这三种主要感知部件中,毫米波雷达是最早应用于智能驾驶辅助系统中的传感器。早在上个世纪90年代初,毫米波雷达就被搭载在汽车上,实现ACC、AEB等功能:

图片

图片说明:24 GHz VORAD radar mounted at the front side of a Greyhound bus. Photograph by W. Menzel.

毫米波雷达是对雨、雾、沙尘等恶劣天气适应性最好的感知单元。同时,由于电磁波的衍射和绕射特性,更有机会提前发现被遮挡的潜在危险目标。毫米波雷达也更容易实现远距离检测,目前量产的不足百元的4T4R毫米波雷达,可以轻松实现300米以上的检测距离。

毫米波雷达目前主要的发展趋势:

1)4D成像技术。多通道的4D成像雷达可以实现更高的分辨率和点云密度。
图片

图片来源:Yole

2)LoP和波导天线技术。LoP技术将MMIC与3D波导天线进行无缝集成,在设计和功能方面呈现出了范式转变,LoP技术可以优化性能、减少辐射和散热问题、保持信号完整性和优化雷达系统整体性能。
3)集成度提升。将MMIC和处理器通过先进的工艺集成在一起,成为单片MMIC-SoC系统,大幅降低系统成本。
图片
4)卫星雷达。卫星雷达将复杂的毫米波雷达算法放在更大算力的域控制器中运行,从而实现更低的系统成本,以及更高的感知性能。
图片

 

4. 感知融合

由于每种传感器优劣势各异,感知融合成为感知系统的重要发展方向,例如,激光雷达和摄像头可以做像素级别的融合。

图片

图片来源:欧司朗

京瓷推出的摄像头和激光雷达的融合产品:

图片

图片来源:京瓷

在IEDM 2024上,索尼展示了一款组合式摄像头和ToF传感器,能够同时输出RGB和深度信息,实现高分辨率的无失真图像。

如下是索尼这款堆叠传感器的详细结构,其中可见光被RGB像素吸收,TOF像素记录的红外波长可以穿过底层彩色滤光片,从而实现深度信息的测量:

图片

图片来源:索尼

检测效果如下:

图片

图片来源:索尼

此类融合传感器一旦能够量产,将带来感知系统的革命性变革。

 

感知系统正在从1D、2D到3D、4D方向发展,未来甚至有5D的感知单元:

图片

图片来源:Yole

 

09

结语

汽车作为一个商品,也一样面临性能和成本的权衡。通常来讲,摄像头分辨率越高、激光雷达线束数越多、毫米波雷达通道数越密集,传感器数量越多,能够覆盖的“极端场景”越多,但是成本往往也更高。

 

但是,智驾毕竟不是“冰箱彩电大沙发”,宕个机、运行出现偏差,可能顶多影响点心情。

智驾一旦出问题,可能影响的不仅仅是一点心情。作为一个要代替驾驶员开车的设备,智驾系统的安全性,应该被分配足够的权重。

图片
或许,这也是本标准被定义为强制性标准的初衷。

 

 

文章转载自公众号:雪岭飞花

作者:雪岭飞花

原文链接:https://mp.weixin.qq.com/s/L9plTykXkMWNqOW6MQ7EOw

算法工具链
前沿技术
评论0
0/1000