首页 | 本学科首页   官方微博 | 高级检索  
     

面向嵌入式系统的复杂场景三维目标融合检测方法
引用本文:魏晓旭,陈俊,王永圣,张畅,侯明浩.面向嵌入式系统的复杂场景三维目标融合检测方法[J].武汉理工大学学报,2023(6):153-160.
作者姓名:魏晓旭  陈俊  王永圣  张畅  侯明浩
作者单位:1. 武汉理工大学汽车工程学院;2. 武汉理工大学信息工程学院;3. 武汉理工大学自动化学院
基金项目:国家重点研发计划(2021YFB2501104);;武汉理工大学国家大学生创新训练计划基金(S202210497312);
摘    要:为解决复杂道路场景下,运行在嵌入式设备上的3D目标检测算法存在准确率低、实时性差等问题,提出了一种基于视觉2D目标检测和激光雷达3D目标检测结果级融合的方法。首先在YOLOv3算法的网络结构引入注意力机制,得到图像坐标系下2D目标检测结果;其次融合谱聚类和基于动态半径阈值的欧式聚类,得到点云坐标系下3D目标检测结果;最后通过相机和激光雷达联合标定统一坐标系,利用交占比(IOU)方法得到融合检测结果。实验结果表明:文中提出的多传感器融合检测算法,在KITTI 3D目标检测数据集表现良好,并可以在实车嵌入式平台进行部署,实时获得目标的多维信息,为智能汽车在路径上最近的车辆(CIPV)进行目标跟踪和轨迹预测提供了有效的数据支撑。

关 键 词:多传感器融合  注意力机制  嵌入式系统  动态半径阈值  3D目标检测
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号