北京,2025年3月25日 – 在自动驾驶技术商业化竞争日趋激烈的当下,高质量的仿真系统已成为验证行车安全的关键基础设施。小米汽车近日首次公开其在自动驾驶领域的研究成果,展示了一种名为Uni-Gaussians的创新框架,该框架旨在解决动态驾驶场景中相机与LiDAR(激光雷达)联合仿真的难题,为自动驾驶技术的安全落地提供更可靠的保障。
这项研究由来自香港科技大学、小米汽车和华中科技大学的研究团队共同完成。论文的共同第一作者包括香港科技大学博士后研究员袁子康、小米汽车算法工程师蒲粤川和罗鸿城,小米汽车世界模型负责人孙海洋也是论文作者之一。华中科技大学教授杨欣担任通讯作者。相关论文已在arXiv上发布,项目主页也已同步上线。
Uni-Gaussians框架的核心在于提出了一种基于统一高斯表征的分治渲染架构,旨在实现精确性与计算效率的协同优化。当前,主流的神经渲染方案在处理相机和LiDAR联合仿真时面临诸多挑战。例如,基于NeRF(神经辐射场)的方法虽然能够统一渲染相机图像和LiDAR点云,但其依赖密集采样的体渲染机制导致计算效率低下。而基于高斯溅射(Gaussian Splatting)的方法虽然能够通过光栅化实现实时渲染,但其基于线性光学假设的渲染管线难以精确建模非线性光学传感器特性,限制了其在针孔相机之外的传感器类型中的应用。
为了克服这些挑战,研究团队提出了Uni-Gaussians框架,实现了动态驾驶场景的高斯基元统一表征与分治渲染的架构。该框架使用动态高斯场景图(Gaussian scene graph)来建模静态背景与动态实体,如刚性车辆和非刚性行人。对于图像数据,Uni-Gaussians采用光栅化进行渲染,以确保高帧率输出。对于LiDAR数据,则引入高斯光线追踪(Gaussian Ray-Tracing),精确模拟激光脉冲传播特性。
该研究的主要贡献包括:
- 提出了一种统一、高效的仿真系统,能够利用高斯基元实现相机和激光雷达数据的联合重建。
- 实现了包含车辆、行人和骑车人在内的所有交通参与者的高质量LiDAR仿真。
- 通过大量的实验证明了统一的高斯表征和混合渲染方法的优势。
实验结果表明,Uni-Gaussians在Waymo公开数据集上表现出色。在LiDAR数据方面,该框架在点云几何精度评估(Chamfer Distance和F-score)以及雷达测距性能和反射强度质量评估(RMSE、MedAE、LPIPS、SSIM和PSNR)上均优于现有方法。与DyNFL和LiDAR4D相比,Uni-Gaussians的CD指标分别降低了40.9%和46.7%,同时渲染耗时和计算内存消耗也大幅降低。在相机图像渲染质量方面,Uni-Gaussians同样保持了高质量,并在新视角下展现出优越的泛化性能。
研究团队表示,Uni-Gaussians通过统一的高斯表征和分治渲染的方法,实现了一套视觉和雷达点云的联合仿真框架。该框架在点云和图像上均展现出强大的仿真性能,兼顾高效率和高质量,为行业提供了一套优秀的解决方案。
小米汽车此次公开自动驾驶研究成果,展示了其在关键技术领域的实力和决心。Uni-Gaussians框架的推出,有望加速自动驾驶技术的研发和商业化落地,为未来的智能出行提供更安全、更可靠的保障。
参考文献:
- 袁子康, 蒲粤川, 罗鸿城, 等. Uni-Gaussians: Unifying Camera and Lidar Simulation with Gaussians for Dynamic Driving Scenarios. arXiv:2503.08317 [cs.CV].
相关链接:
Views: 0