加州大学河滨分校等机构联合发布突破性研究,为自动驾驶安全决策提供全新方案。
[机器之心快讯] 传统自动驾驶系统依赖单车传感器,易受遮挡或极端天气影响,导致感知与预测能力受限,如同被蒙上双眼。如今,这一难题有望被打破。2025年3月,加州大学河滨分校与密歇根大学、加州大学伯克利分校以及华盛顿大学的联合团队在机器人领域顶级期刊《IEEE Robotics and Automation Letters》上发表了一项最新研究成果——CMP (Cooperative Motion Prediction),首次提出了一种面向车联网(V2X)的协同运动预测框架,通过多车信息共享与融合,显著提升了自动驾驶车辆的轨迹预测精度与场景适应能力。
这项创新技术已在真实场景数据集V2V4Real和仿真平台OPV2V中得到验证,结果显示,相比现有最优模型,CMP的预测误差降低了12.3%,为复杂交通环境下的自动驾驶安全决策提供了全新的解决方案。
论文标题:CMP: Cooperative Motion Prediction with Multi-Agent Communication
论文链接:https://arxiv.org/pdf/2403.17916
项目网站:https://cmp-cooperative-prediction.github.io
代码开源:https://github.com/tasl-lab/CMP
技术亮点:感知-预测一体化协同
CMP的核心在于其感知-预测一体化协同机制,旨在破解自动驾驶的“视线盲区”。传统自动驾驶系统受限于单车传感器,容易出现信息孤岛,导致感知和预测能力受限。CMP通过多车协同感知与预测的深度融合,实现了“全局视野”与“动态推理”的双重突破:
-
高效协同感知:CMP利用256倍压缩率的鸟瞰图(BEV)特征传输,将带宽需求从82.5 MB/s降至0.32 MB/s,兼顾了通信效率与感知精度。同时,该系统支持100ms内的通信延迟,通过时空对齐与多帧同步处理,确保数据在动态场景下的有效性。
-
动态轨迹预测:CMP采用基于Transformer架构的多模态预测解码器,结合高斯混合模型(GMM),生成多样化的未来轨迹假设,覆盖车辆转向、避让等多种行为模式。此外,通过注意力机制,CMP能够动态整合多车预测结果,优先采纳邻近车辆的可靠预测,进一步提升长时预测(5秒)的准确性。
研究背景:突破单车感知的局限性
自动驾驶技术的核心在于对环境的精准感知与未来轨迹的可靠预测。然而,传统系统依赖单车传感器(如LiDAR、摄像头),存在视野受限、易受遮挡的固有缺陷。例如,城市路口被建筑物遮挡的车辆、高速场景中的突然切入目标,仅凭单车感知极易出现漏检或误判,导致决策延迟甚至安全事故。
为突破这一限制,协同感知(Cooperative Perception)应运而生。通过车联网(V2X)技术,车辆可共享传感器数据,构建全局环境认知。现有研究已证明,多车协同能显著提升目标检测精度,但这类工作多局限于感知层的信息融合,未深入挖掘协同数据对运动预测的价值。与此同时,单车轨迹预测模型并未考虑多车交互,协同预测。
在此背景下,CMP应势而生。作为首个感知-预测一体化协同框架,CMP不仅通过高效BEV特征共享与压缩技术扩展感知边界,更创新性地引入预测聚合模块,动态融合多车预测结果,在真实通信约束下实现“全局感知-精准预测-协同决策”的闭环,为复杂动态场景中的自动驾驶安全树立新标杆。
研究方法:感知-预测-聚合三阶协同框架
CMP以多车协同感知为基础、动态轨迹预测为核心、预测聚合优化为闭环,构建了一套完整的三阶协同框架:
-
协同感知:通过改进版CoBEVT网络,将每辆车的LiDAR点云转换为鸟瞰图(BEV)特征,并进行256倍压缩,降低带宽需求。同时,基于GPS同步时钟,设计100ms通信窗口,通过可微分空间变换算子(STO)对齐多车坐标系,解决车辆运动与通信延迟导致的特征错位问题。最后,利用FuseBEVT模块聚合多车BEV特征,输出3D目标框,检测精度显著提升。
-
轨迹预测:引入MTR模型框架,通过Polyline编码器提取车辆轨迹特征,ViT编码器提取高精地图语义,结合Transformer融合局部交互与全局意图。采用k-means对历史轨迹终点聚类,生成64个意图点(Intention Points),表征转向、直行、停车等多模态目标。通过Transformer解码器迭代优化轨迹,输出高斯混合模型(GMM)参数,覆盖未来5秒内位置分布,支持概率化多模态预测。
-
预测聚合:通过注意力机制动态整合多车预测结果,优先采纳邻近车辆的可靠预测,进一步提升长时预测的准确性。
展望未来
CMP的成功发布标志着自动驾驶技术在协同感知和预测领域迈出了重要一步。未来,随着车联网技术的不断发展和完善,多车协同感知与预测将成为自动驾驶系统的重要组成部分,为实现更安全、更高效的自动驾驶提供有力支撑。
参考文献:
- CMP: Cooperative Motion Prediction with Multi-Agent Communication. (https://arxiv.org/pdf/2403.17916)
- V2VNet: Vehicle-to-Vehicle Communication for Joint Object Detection and Motion Forecasting.
- CoBEVT: Cooperative Bird’s Eye View Semantic Understanding with Sparse Communication.
- MTR: Multi-Trajectory Prediction with Dynamic Intention Points.
致谢:
感谢加州大学河滨分校、密歇根大学、加州大学伯克利分校以及华盛顿大学联合团队为自动驾驶技术发展做出的贡献。
Views: 0