首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 99 毫秒
1.
基于激光测距与双目视觉信息融合的移动机器人SLAM研究   总被引:1,自引:0,他引:1  
未知复杂环境中不规则的障碍物使传感数据具有不确定性,单依靠激光测距仪进行移动机器人的定位与自主导航可靠性不足;针对此问题,提出了一种基于激光测距仪和双目视觉传感器信息融合的精确定位方法,利用加权最小二乘拟合方法和尺度不变特征变换(SIFT)算法分别从对激光信息与视觉信息中提取直线和点特征,进行特征级的信息融合。通过对实验结果和数据分析,多传感器信息融合可以有效提高移动机器人SLAM(即时定位与地图构建)的精度和鲁棒性。  相似文献   

2.
针对RGB-D相机的同步定位与地图构建算法中的相机位姿估计存在较大的累积误差以及算法时间代价较大的问题,本文主要通过使用EPNP算法结合ICP算法进行组合优化,提高位姿估算的准确度,实现一种快速简单的三维重建算法,通过与RGB-D SLAM的对比实验验证证明了该方法的实时性和准确性.  相似文献   

3.
基于卷帘快门RGB-D相机的视觉惯性SLAM方法   总被引:1,自引:0,他引:1  
曹力科  肖晓晖 《机器人》2021,43(2):193-202
针对当前单目视觉惯性SLAM(同步定位与地图创建)中初始化需要加速度激励以及高IMU(惯性测量单元)噪声条件下系统精度下降的问题,提出一种基于卷帘快门RGB-D相机的视觉惯性SLAM方法——VINS-RSD方法.VINS-RSD方法联合卷帘快门RGB-D图像和IMU对系统进行初始化,通过控制特征的速度对卷帘快门效应进行校正,并采用一种带置信因子的损失核函数进行滑动窗口优化.为了评测该方法,在WHU-RSVI数据集的基础上制作了一个可以评价RGB-D视觉惯性SLAM算法的开源深度数据集并进行实验验证.结果表明,与VINS-Mono方法相比,VINS-RSD方法的均方根误差平均值下降了30.76%,表明该方法能获得更高的跟踪精度.  相似文献   

4.
针对单目视觉惯性SLAM算法鲁棒性不高且尺度恢复困难的问题,提出基于动态边缘化的双目视觉惯性SLAM算法(DM-SVI-SLAM).前端使用光流法进行特征跟踪,利用预积分计算帧间IMU,后端在滑动窗口内融合单/双目匹配点误差、IMU残差及先验误差构建捆集调整的成本函数,利用动态边缘化策略、Dog-Leg算法提升计算效率...  相似文献   

5.
即时定位与地图构建(simultaneous localization and mapping,SLAM)是自主移动机器人和自动驾驶的关键技术之一,而激光雷达则是支撑SLAM算法运行的重要传感器。基于激光雷达的SLAM算法,对激光雷达SLAM总体框架进行介绍,详细阐述前端里程计、后端优化、回环检测、地图构建模块的作用并总结所使用的算法;按由2D到3D,单传感器到多传感器融合的顺序,对经典的具有代表性的开源算法进行描述和梳理归纳;介绍常用的开源数据集,以及精度评价指标和测评工具;从深度学习、多传感器融合、多机协同和鲁棒性研究四个维度对激光雷达SLAM技术的发展趋势进行展望。  相似文献   

6.
针对单目视觉SLAM(同时定位与地图构建)算法没有尺度信息以及在相机移动过快时无法使用的问题,提出了一种IMU(惯性测量单元)!!/磁力传感器与单目视觉融合的SLAM方法.首先,提出了一种模糊自适应的九轴姿态融合算法,对IMU的航向角进行高精度估计.然后,采用单目ORB-SLAM2(oriented FAST and rotated BRIEF SLAM2)算法,通过IMU估计其尺度因子,并对其输出的位姿信息进行尺度转换.最后,采用松耦合方式,对IMU估计的位姿和ORB-SLAM2算法经过尺度转换后的位姿,进行卡尔曼滤波融合.在公开数据集EuRoC上进行了测试,测试结果表明本文方法总的位置均方根误差为5.73 cm.为了进一步在实际环境中验证,设计了全向移动平台,以平台上激光雷达所测的位姿数据为基准,测试结果表明本文方法的旋转角度误差小于5°,总的位置均方根误差为9.76 cm.  相似文献   

7.
李久胜  章园媛 《计算机仿真》2010,27(8):132-136,149
自主移动机器人通过自身携带的传感器来感知周围环境是实现其智能导航的前提。由于视觉传感器只能检测路标的方位角,不能提供距离信息,当利用视觉传感器完成机器人的同步定位及地图创建(SLAM)时,由于路标距离信息的缺失,会带来新路标的初始化及旧路标关联等难题。为识别新路标方位,采用滞后的三角型测量法来估计新路标的距离,从而解决了新路标初始化及旧路标关联等问题,并最终建立了一套适用于视觉传感器的SLAM算法及在Matlab上建立的仿真模型。仿真实验结果表明,算法满足概率估计的一致性和收敛性条件,是一种有效的仅检测路标方位角的同步定位及地图创建算法,证明方法的有效性。  相似文献   

8.
SIFT算法通常用于移动机器人视觉S LAM中。但其算法复杂、计算时间长,影响视觉SLAM的性能。在两方面对SIFT改进:一是用街区距离与棋盘距离的线性组合作为相似性度量;二是采用部分特征方法完成快速匹配。应用扩展卡尔曼滤波器融合SIFT特征信息与机器人位姿信息完成SLAM。仿真实验表明,在未知室内环境下,该算法运行时间短,定位精度高。  相似文献   

9.
传统的RatSLAM算法中视觉处理受环境、光照的影响大,进而导致建图精度及稳定性下降。因此,提出了一种快速增量式视觉处理方法克服原RatSLAM系统中的视觉处理的缺陷。以一个改进型的二叉搜索树为检索算法,通过动态岛屿机制对图像进行分组,最终通过序列匹配的形式实现环境识别,达到了在线、准确、快速识别环境的目的。实验结果表明,所提算法的位置识别准确率高于99%,召回率高于80%,平均处理时间低于50ms。本系统的闭环性能、时间性能及建图稳定性均显著优于现有方案,进一步证明了基于快速增量式视觉处理方法的鲁棒性、高效性。  相似文献   

10.
研究和实现了一种基于SLAM技术的虚实配准方法,通过将SLAM分离为定位和构图,分别利用改进的pf做位姿估计和ukf进行位置估计,进而实现整个场景内目标的位姿计算,最终完成虚实配准。一定程度上解决了传统方法中存在的视域受限问题,并同时支持户内和户外应用,提高了增强现实系统的可用性。  相似文献   

11.
吴锦杰  刘肖琳 《计算机工程》2010,36(12):209-212
提出一种基于双目相机的图像拼接方法,对安放在移动机器人上不同位置的2个相机在同一时刻所拍摄到的图像进行拼接,引入自适应的非极大值抑制技术,只在图像的重叠区域进行Harris角点检测,并结合小波变换和对极几何,对图像进行快速特征匹配。在图像融合中,构造一种非线性的过渡函数,使图像重叠区域之间的过渡更平滑。实验结果表明,与传统方法相比,该方法的效率更高。  相似文献   

12.
为改善视觉SLAM(SimultaneousLocalizationandMapping)系统在低纹理环境下定位精度较低的现象,提出一种改进的ORB(OrientedFASTandRotatedBRIEF)特征点提取策略和一种关键帧选择机制;首先采用多尺度分析和基于局部灰度的特征检测方法克服一般ORB算法缺乏尺度和旋转描述的缺点;其次提出一种基于高斯模糊的图像信息增强方法解决传统ORB特征点提取方法在纹理信息不被突出环境下容易失效的问题,并对图像进行象限分割使特征点均匀分布;最后为剔除劣质关键帧,设计了一种综合时间因素与特征点数量因素的关键帧选择机制;将提出的方法移植到ORB_SLAM2上,并在TUM数据集上测试,实验结果表明,视觉SLAM系统的定位误差平均降低14.688%,证实了本文方法的有效性。  相似文献   

13.
一种融合激光和深度视觉传感器的SLAM地图创建方法   总被引:1,自引:0,他引:1  
针对移动机器人的不确定复杂环境,一般采用单一传感器进行同时定位和地图创建(SLAM)存在精度较低,并且易受干扰,可靠性不足等问题,本文提出一种基于Bayes方法的激光传感器和RGB-D传感器的信息融合SLAM方法,利用Bayes方法通过概率启发式模型提取光束投影到栅格地图单元,充分利用激光与视觉信息中的冗余信息,提取一致性特征信息,并进行特征级的信息融合;在地图更新阶段,本文提出一种融合激光传感器和视觉传感器的贝叶斯估计方法,对栅格地图进行更新。在使用ROS(移动机器人操作系统)的实验平台上实验表明,多传器信息融合可以有效提高SLAM的准确度和鲁棒性。  相似文献   

14.
朱晨  王宇杰  郭杭 《测控技术》2023,42(1):113-118
回环检测算法在视觉即时定位与地图构建(SLAM)系统框架中具有重要的作用,能够修正在前端和后端计算过程结果中产生的不可避免的累计误差,在长时间运行的情况下能够保证定位与建图的准确性。传统的视觉SLAM中主要采用基于词袋模型的图像检索方式,但是在视角差异较大的情况下难以匹配到正确的图像。针对这种情况,基于双目相机提出利用透视变换和基于迭代最近点(ICP)算法的空间信息几何检验,对候选关键帧进行视角变换和匹配,完成较大视角差异情况下的回环检测,修正累计误差。该方法适用于对算法耗时要求不甚严格的场景。实验结果表明,该方法可以提高识别回环检测候选关键帧的准确率和召回率。  相似文献   

15.
魏彤  李绪 《机器人》2020,42(3):336-345
现有的同步定位与地图创建(SLAM)算法在动态环境中的定位与建图精度通常会大幅度下降,为此提出了一种基于动态区域剔除的双目视觉SLAM算法.首先,基于立体视觉几何约束方法判别场景中动态的稀疏特征点,接下来根据场景深度和颜色信息进行场景区域分割;然后利用动态点与场景分割结果标记出场景中的动态区域,进而剔除现有双目ORB-SLAM算法中动态区域内的特征点,消除场景中的动态目标对SLAM精度的影响;最后进行实验验证,本文算法在KITTI数据集上的动态区域分割查全率达到92.31%.在室外动态环境下,视觉导盲仪测试中动态区域分割查全率达到93.62%,较改进前的双目ORB-SLAM算法的直线行走定位精度提高82.75%,环境建图效果也明显改善,算法的平均处理速度达到4.6帧/秒.实验结果表明本文算法能够显著提高双目视觉SLAM算法在动态场景中的定位与建图精度,且能够满足视觉导盲的实时性要求.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号