当前位置: >首页 >资讯中心 >团体会员动态
李必军、周剑课题组联合东风悦享在车路图一体化标定感知定位领域取得重要成果
发布时间:2025-10-23     来源:测绘遥感全国重点实验室     浏览:622次

近日,李必军、周剑课题组在车路图一体化标定感知定位领域的研究取得了重要进展,相关成果发表于多传感器融合与智能系统领域顶级国际期刊《Information Fusion》,智能交通领域顶级国际期刊《IEEE Transactions on Intelligent Transportation Systems》,美国摄影测量与遥感学会出版的学术期刊《Photogrammetric Engineering & Remote Sensing》,获得第九届激光雷达大会优秀论文,授权三项发明专利,并于第九届激光雷达大会点云智能解析大赛上斩获特等奖两项,一等奖一项。该系列研究聚焦车路协同场景下的标定感知定位一体化研究,针对多源观测时空对齐困难与通信带宽受限与通信带宽受限等关键问题,提出了一系列解决方案。

车路协同通过通信共享多视角信息,显著提升了车辆对复杂动态环境的适应能力,已成为智能交通体系的重要组成部分。然而,当前技术面临几个关键挑战:首先,时空异步问题主要体现在多传感器数据的时空对齐上,需要为后续的定位感知任务提供统一的时空基准;其次,车路图一体化多源融合面临数据源异构性问题,如何有效融合来自不同感知模块的数据是系统性能提升的关键;最后,定位感知闭环系统作为一个新兴且具有巨大潜力的研究方向,旨在通过精确的定位与感知闭环提升协同感知系统的全局态势感知能力和应用范围,是当前亟待探索的技术前沿。这些问题的解决将为车路协同的快速发展提供有力支撑。

针对多传感器时空异步问题,研究团队提出了一个自动标定框架RoCalib,引入高精地图作为统一空间参考,旨在实现无需人工靶标的大规模路侧雷达标定,相关成果发表于智能交通领域顶级期刊《IEEE Transactions on Intelligent Transportation Systems》,并授权国家发明专利2项。RoCalib首先提出虚拟重投影模型,将高精地图转换为仿真激光点云,实现地图与实际雷达观测的表示统一;其次构建通用空间上下文描述符,利用密度归一化和空间加权编码实现对多视角点云的鲁棒匹配与快速定位;最后引入多特征优化策略,在地面、平面及空间特征层面进行多阶段精配准。实验结果显示,RoCalib在多套实测与仿真数据上均实现亚米级精度,其姿态和位姿误差显著优于传统配准方法,能够在无人工标定的情况下实现大规模路侧感知节点的自动化部署。该成果的第一作者是研究生段聪,指导老师为周剑副研究员、李必军教授和董震教授。

图片

图1 RoCalib路侧标定框架

此外,周剑副研究员与博士生邱欢指导本科生卞浩邈开展大学生创新创业项目,聚焦路侧相机姿态在线更新问题,提出了一种基于Vision Mamba的无靶标自动标定方法。该方法仅需一辆搭载激光雷达的自动驾驶车辆在相机视场内正常通行,即可实现相机外参的实时复核与修正。研究通过语义分割模型(SAM)实现动静态目标分离,构建双分支4D相关张量以抑制动态目标干扰,并引入Vision Mamba进行时序建模,有效应对交通流变化与时域错位问题。在DAIR-V2X数据集上的实验表明,该方法旋转精度较现有最优方法提升19%,在高动态场景下仍保持稳定。该成果以《基于Vision Mamba的路侧相机姿态在线更新方法》为题,提交第九届全国激光雷达大会并被评为优秀论文,展现了团队在轻量化、高鲁棒性标定技术方面的前沿探索。

图片

图2 基于Vision Mamba车路协同标定框架

车路图一体化多源协同感知是智能交通领域的关键技术,旨在提升车辆、路侧设施与高精地图之间的协同效能。针对多源协同感知面临的通信带宽与感知性能之间的权衡问题,项目团队联合东风悦享提出了创新性的协同感知框架Map4comm。该框架通过创新性地引入与感知空间特征精准对齐的地图掩膜,有效过滤实时感知特征中的冗余背景信息,选择性地提取关键感知区域作为通信内容。同时,结合自适应协同体素特征对齐策略,实现了车-路-图多源低维体素特征的粗对齐,显著提升了系统的感知性能。实验表明,Map4comm框架成功实现了通信带宽与感知性能之间的高效平衡。团队博士生邱欢为该论文第一作者,指导老师为李必军教授和周剑副研究员,骆嫚(东风悦享)和博士生唐有辰共同参与完成。

图片

图3 Map4comm车路图一体化多源协同感知框架

在智能网联环境下,车路协同感知定位闭环系统通过整合来自不同智能体的感知数据和定位信息,对于提升智能体在复杂交通场景中的全局态势感知能力具有巨大的潜力。为了探索这一具有前景的方向,研究团队提出了创新性的协同感知定位闭环框架Posicooper。该框架融合了实时位置信息与感知特征,在通信策略方面,通过利用高频定位信息构建全局置信图,精确筛选关键区域进行感知数据传输,显著降低了通信负载;在感知建模方面,Posicooper通过引入定位嵌入关键区域引导模块,提升了网络对潜在高价值区域的关注,从而增强了目标检测的准确性。实验结果表明,Posicooper在降低通信开销的同时,显著提升了感知精度,充分展示了其在高动态城市交通环境中的巨大应用潜力。团队博士生邱欢为该论文第一作者,指导老师为李必军教授和周剑副研究员。

图片

图4 Posicooper车路协同感知定位闭环框架

在应用层面,团队成员参加第九届激光雷达大会点云智能解析大赛,针对城市道路场景点云语义/实例分割、铁路场景点云语义分割和跨视域目标检测三个赛道开展研究,聚焦边界点云分割、局部特征提取和跨模态适应等关键问题,斩获特等奖两项,一等奖一项,为激光雷达在不同场景下的感知能力提供技术支撑。李必军教授长期致力于车路协同与高精度自动驾驶地图领域的研究,作为“十四五”国家重点研发计划项目——“高精度自动驾驶动态地图与北斗卫星融合定位技术”负责人,他以产教融合的培养模式,推动科研创新与产业应用深度结合,为政府、高校及智能网联汽车行业持续输送中坚力量。

参考文献:

[1] Duan C, Zhou J, Li B, et al. RoCalib: Large-Scale Autonomous Geo-Calibration for Roadside Lidar With High-Definition Map[J]. IEEE Transactions on Intelligent Transportation Systems, 2025. Transactions on Intelligent Transportation Systems 2025

[2] Qiu H, Zhou J, Li B, et al. Map4comm: A map-aware collaborative perception framework with efficient-bandwidth information fusion[J]. Information Fusion, 2025: 103567.

[3] Qiu H, Zhou J, Xiong C, et al. Posicooper: A Position-Prior-Driven Cooperative Perception Framework [J]. Photogrammetric Engineering and Remote Sensing, 2025.

主管部门:
自然资源部
民政部
中国科协
京ICP备14037318号-1 京公网安备 11010802031220号
主办:中国测绘学会    技术支持 :江苏润溪时空智能科技股份有限公司
联系电话:010-63881345      邮箱地址:zgchxh1401@163.com
联系地址:北京市海淀区莲花池西路28号西裙楼四层