专栏算法工具链自动驾驶新突破!策略世界模型让AI像人类一样预判未来

自动驾驶新突破!策略世界模型让AI像人类一样预判未来

巴山夜雨2025-10-27
14
0

原论文信息如下:

 

论文标题:
From Forecasting to Planning: Policy World Model for Collaborative State-Action Prediction 发表日期:
2025年10月 作者:
Zhida Zhao, Talas Fu, Yifan Wang, Lijun Wang, Huchuan Lu 发表单位:
大连理工大学 原文链接:
https://arxiv.org/pdf/2510.19654 开源代码链接:
https://github.com/6550Zhao/Policy-World-Model

想象一下,当你开车时,是不是会下意识地"脑补"前方可能出现的各种情况?比如突然窜出的行人、前方车辆的急刹,或是路口突然出现的障碍物?这种"预判未来"的能力,是人类驾驶员安全驾驶的关键。

 

那么问题来了:AI能否学会这种"脑补"未来的能力,从而做出更安全的驾驶决策呢?

 

大连理工大学的研究团队给出了一个令人惊喜的答案——他们提出的Policy World Model (PWM),不仅能让AI"看见"未来,还能基于这种预见能力做出更智能的规划决策!
项目整体架构图

图1:Policy World Model整体架构图,展示了从预测到规划的完整流程

 

重新定义自动驾驶:从预测到规划的协同状态-动作预测

 

传统的自动驾驶世界模型存在一个明显的局限性:它们主要专注于世界模拟,而将轨迹规划作为一个独立的任务。这就好比一个司机能够预测前方路况,却不知道该如何根据这些预测来调整自己的驾驶行为。

 

更令人遗憾的是,即使是那些尝试将世界建模和规划统一起来的模型,也只是在架构上进行了整合,而未能实现真正的协同工作。它们的世界建模和规划任务仍然是独立进行的,就像两个人在同一辆车里各自看着不同的地图导航。
自动驾驶视频世界模型对比

图2:自动驾驶视频世界模型对比 (a)传统视频世界模型作为像素空间的数据引擎 (b)统一世界模型将视频生成和规划作为独立任务 (c)本文提出的策略世界模型基于学习的世界知识进行规划

 

PWM的突破性在于,它实现了真正的协同状态-动作预测。简单来说,就是让AI系统能够:

 

第一步:预演未来基于当前和历史观测,生成 plausible(合理可信)的未来场景视频帧

 

第二步:智能规划基于这些预演的未来状态,制定出最优的驾驶轨迹

 

这种机制完美模拟了人类驾驶员的"预期感知"能力——我们在做出驾驶决策前,会先在脑海中想象各种可能的未来情景,然后选择最安全的行动方案。

插图

Policy World Model的核心创新:统一世界建模与轨迹规划

 

PWM的核心架构设计体现了真正的端到端思维。让我们来深入解析这个创新模型的几个关键设计:

 

 

无动作视频生成预训练

 

与传统的动作条件视频生成不同,PWM采用无动作视频生成进行预训练。这个设计的精妙之处在于:

 

它不依赖于动作标注数据,这意味着模型可以从大规模无标签视频数据中学习世界建模能力,大大提升了训练的可扩展性。更重要的是,这种设计允许模型在预测动作之前就能进行未来状态推演,为规划任务提供了宝贵的前瞻信息。
视频世界建模流程

图3:视频世界建模流程 (a)世界建模在无动作、高压缩视频数据上使用动态增强的并行预测进行 (b)token预测格式和注意力交互的比较

 

 

上下文引导的图像分词器

 

为了实现高效的视频预测,PWM采用了一个巧妙的双分支图像分词器设计:

 

高分辨率分支处理初始帧,捕获丰富的视觉细节

 

低分辨率分支在上下文引导下,将每帧图像压缩到仅28个token,大幅提升生成效率

 

这种设计在生成质量和计算效率之间找到了完美的平衡点——既保证了视觉连贯性,又实现了快速的并行帧生成。

统一预测和规划的Policy World Model

图4:统一预测和规划的Policy World Model (a)PWM利用其预训练的世界建模能力生成未来帧,实现感知、预测和规划的无缝协作 (b)未来视频帧在初始帧引导下压缩为紧凑的潜在表示

 

 

端到端的多模态推理

 

在推理阶段,PWM展现出了真正的多模态协同能力。给定当前和历史观测,模型会:

 

首先生成文本描述来理解当前环境,然后基于学习的世界知识推演合理的未来状态,最后结合生成的描述和预测的未来状态,输出最优的驾驶动作。

 

整个过程通过端到端的自回归Transformer实现,确保了感知、预测和规划之间的无缝协作。

插图

动态焦点损失:提升视频预测质量的关键技术

 

在训练过程中,研究团队发现了一个有趣的现象:相邻帧之间高达50%的token是保持不变的。这导致模型倾向于预测静态token,从而削弱了其对时间动态的建模能力。

 

为了解决这个问题,团队提出了动态焦点损失(Dynamic Focal Loss, DFL),这是一个专门设计来强调时间变化图像区域的损失函数。

 

DFL的核心思想是通过空间加权来区分动态和静态token的重要性。这个巧妙的设计鼓励模型将更多注意力分配到动态区域,从而显著增强了其捕捉帧间有意义的时空变化的能力。
动态焦点损失效果对比可视化

图5:动态焦点损失效果对比可视化。第一行显示真实帧,第二行显示无DFL的预测,第三行显示有DFL的预测

 

从可视化结果可以明显看出,使用DFL后模型能够更好地捕捉和表示随时间变化的动态场景元素,产生更准确和时间一致的预测。

 

这种技术不仅提升了视频预测的质量,更重要的是为下游的规划任务提供了更可靠的未来状态信息,从而实现了真正意义上的协同状态-动作预测。

插图

实验结果:仅用单目相机超越多视角、多模态方法

 

Policy World Model在多个主流自动驾驶基准测试中展现出了惊人的性能。最令人印象深刻的是,它仅使用单目前视相机输入,就达到了甚至超越了那些依赖多视角相机和激光雷达的先进方法。
nuScenes验证集比较

表1:nuScenes验证集比较。指标按照与[67]相同的协议计算。为公平比较,结果分别报告了无自车状态和有自车状态(标记为"†")的设置;UniAD和VAD的结果从BEV-Planner[68]复现。最佳结果加粗显示。

 

在nuScenes数据集上,PWM在两个设置下分别实现了0.07%和0.04%的最低平均碰撞率,显著优于包括Drive-OccWorld和DiffusionDrive在内的先前最先进模型。考虑到nuScenes相对简单的驾驶场景容易导致模型过度依赖自车状态,这一成绩尤为难得。
NAVSIM NavTest分割比较

表2:NAVSIM NavTest分割比较。总体预测驾驶员模型分数(PDMS)和反映闭环性能的子分数。C:多视角相机;SC:单视角相机;C&L:多视角相机+激光雷达;"-":无视觉输入。最佳结果加粗显示。

 

在更具挑战性的NAVSIM数据集上,PWM的表现更加突出。虽然仅依赖单目前视相机输入,但该方法显著优于所有先前的基于相机的模型,包括DrivingGPT和LAW等世界建模方法。它实现了88.1的PDMS分数,与使用相机和激光雷达输入的最先进方法DiffusionDrive相当。同时,本模型达到了更高的碰撞时间(TTC)分数95.4和无过错碰撞(NC)分数98.6。
插图

这些结果不仅增强了自动驾驶的安全性,还凸显了从基于视频的环境表示中学习的潜力。想象一下,仅用一个普通摄像头就能达到多传感器融合系统的性能,这为降低自动驾驶系统成本开辟了全新可能!

 

 

消融研究揭示关键设计价值

 

为了深入理解PWM各个组件的作用,研究团队进行了系统的消融实验。结果清晰地展示了无动作视频世界知识和动态焦点损失对模型性能的关键影响。

世界建模和动态焦点损失对nuScenes和NAVSIM的影响

表3:世界建模和动态焦点损失对nuScenes和NAVSIM的影响。"Pretrain"表示在Open-Youtube视频上训练。"Fine-tune"表示在下游基准上训练。"·ℒDFL-p"和"·ℒDFL-f"分别表示动态焦点损失是否用于预训练和微调。报告了视频指标和规划分数。

 

在没有预训练的情况下,模型难以捕捉和预测动态场景变化,产生了最差的预测和规划指标。而在无动作视频生成上进行预训练后,模型显著提高了预测未来帧的能力,并在规划任务中获得了实质性提升。

 

动态焦点损失的应用带来了更加明显的改进。与在两个阶段都忽略动态权重相比,在预训练或微调中应用它都能在三个生成指标以及规划指标上带来明显提升。值得注意的是,仅在预训练阶段使用它在LPIPS和PSNR上取得了比仅微调更强的结果,表明从大规模视频中获得了更有效的时空建模能力。

nuScenes和NAVSIM基准上的视觉预测消融研究

表4:nuScenes和NAVSIM基准上的视觉预测消融研究

 

预测10个未来帧在两个数据集上都实现了最佳性能。研究团队推测,较短的时间范围捕捉不到足够的时序动态,导致规划能力较弱。相反,较长的时间范围会降低预测质量,并可能引入幻觉,特别是在单目前视相机感知有限的情况下,最终损害决策能力。

NVASIM上的解码未来帧预测和对应BEV轨迹可视化

图4:NVASIM上的解码未来帧预测和对应BEV轨迹可视化(绿色:真实值,橙色:预测)

 

从可视化结果可以清楚地看到解码的未来帧预测与规划轨迹之间的明确对齐关系。这种视觉一致性证明了PWM能够生成合理的未来状态,并基于这些状态做出可靠的规划决策。

 

在nuScenes基准上,引入未来帧预测带来了平均碰撞率的大幅降低。在更具挑战性的NAVSIM数据集上,观察到了一个互补的权衡:当模型在训练中不预测未来帧时,它实现了更高的EP分数,表明其规划的轨迹在分配的时间范围内沿着路线前进得更远。相比之下,当模型在微调期间预测未来帧时,它获得了更高的NC和TTC分数,展示了更有效地避免潜在碰撞的能力,以及更高的DAC分数,显示其轨迹更好地保持在可行驶区域内。

训练中是否包含未来预测的规划结果比较

图5:训练中是否包含未来预测的规划结果比较(绿色:真实值,橙色:预测)

 

从这些发现中,可以推断未来帧预测可以诱导出更保守的规划策略,牺牲一些进度(EP)以确保更高的安全边际(NC和TTC)。因此,模型倾向于选择风险较低的路线,而不是最大化前进进度。

插图

这种安全优先的规划策略在实际自动驾驶应用中具有重要价值。毕竟,对乘客和行人来说,安全到达比快速到达更重要!

 

未来展望:更安全、更高效的自动驾驶系统

 

Policy World Model的成功不仅仅体现在当前的实验结果上,更重要的是它为自动驾驶领域指明了新的发展方向。通过将世界建模和轨迹规划真正统一起来,并利用学习的世界知识来增强规划效果,PWM为构建更安全、更高效的自动驾驶系统提供了全新思路。

 

这项工作的核心价值在于证明了使用紧凑的、基于视频的预期表示来驱动更安全、更可扩展的自主系统的潜力。传统的多传感器融合方案虽然性能强大,但成本高昂且复杂度高。PWM展示了仅用单目相机就能达到相当性能的可能性,这为自动驾驶技术的普及降低了门槛。

 

 

当前局限与改进方向

 

尽管基于视频的PWM表现出了强大的性能,但仅依赖单视角输入会在能见度条件差的情况下影响其鲁棒性。此外,其较短的规划视野限制了其在长视野场景中的适用性。

 

在未来的工作中,研究团队计划进一步探索多视角输入的高效集成,并增强长期预测能力,以提高泛化能力和实际应用准备度。这意味着未来的自动驾驶系统不仅能够"预演"近未来的场景,还能对更长时间范围的交通动态做出准确预测。

 

另一个有前景的方向是将PWM与大语言模型(LLMs)和多模态大语言模型(MLLMs)更深度地结合。现有的工作已经展示了将驾驶场景编码为文本进行推理的潜力,而PWM的协同状态-动作预测框架为这种融合提供了理想的基础。

 

想象一下,未来的自动驾驶系统不仅能够预演视觉未来,还能用自然语言描述其推理过程:"我预见到前方车辆可能突然变道,因此决定稍微减速以保持安全距离。"这种透明化的决策过程将大大增强用户对自动驾驶技术的信任。

 

从更广阔的视角来看,PWM中采用的协同状态-动作预测范式不仅适用于自动驾驶领域,还可以扩展到机器人导航、视频游戏AI、虚拟现实等多个需要前瞻性决策的领域。这种让AI系统具备"预演未来"能力的方法,代表了迈向真正通用人工智能的重要一步。

 

随着计算能力的持续提升和视频数据的不断积累,基于世界模型的决策系统有望在更多复杂场景中展现其价值。从城市道路到高速公路,从简单天气到恶劣条件,PWM的方法论为实现全天候、全场景的自动驾驶提供了有希望的技术路径。

 

龙迷三问

 

下面是龙哥对于大家可能的一些问题的解答:

 

为什么PWM仅用单目相机就能达到多传感器系统的性能?关键在于PWM的协同状态-动作预测机制让它能够从视频中学习丰富的世界知识,并通过预演未来场景来做出更明智的决策。这种"脑补"能力补偿了传感器数量上的不足,让单目相机也能"看"得很远。

 

动态焦点损失具体是怎么工作的?DFL通过给动态变化的图像区域分配更高权重,强制模型关注场景中真正重要的变化部分。就像人类司机会更关注移动的车辆和行人而不是静止的建筑一样,DFL让AI学会"选择性注意",大大提升了时空建模的效率。

 

这种方法能直接应用到实际自动驾驶产品中吗?虽然PWM展现了巨大潜力,但实际部署还需要考虑实时性、极端天气条件下的鲁棒性等实际问题。不过,其核心思想——让AI具备预演未来的能力——绝对是自动驾驶技术发展的正确方向。

 

如果你还有哪些想要了解的,欢迎在评论区留言或者讨论~

 

思路启发

 

PWM的研究为我们提供了多个有价值的研究思路。首先,协同状态-动作预测的框架可以扩展到其他序列决策任务中,比如机器人抓取、游戏AI等任何需要前瞻性思考的领域。

 

其次,动态焦点损失的概念为解决视频预测中静态主导问题提供了新思路。在其他视频生成任务中,类似的时间动态强调机制可能同样有效。

 

最重要的是,PWM证明了从大规模无标签视频中学习世界模型的可行性。这为利用海量网络视频数据来训练智能系统打开了新的大门,减少了对昂贵标注数据的依赖。

 

 

文章转载自公众号:龙哥读论文

作者:龙行智械

原文链接:https://mp.weixin.qq.com/s/_a9PgHIoZKNHGKrMuAcRjQ

算法工具链
技术深度解析前沿技术
评论0
0/1000