首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 203 毫秒
1.
为了提高RGB-D相机同时定位与地图构建(SLAM)系统在弱纹理场景下的定位精度和鲁棒性,提出快速的基于点线特征的SLAM方法. 在非关键帧的追踪过程中,基于描述子进行点特征匹配,基于几何约束进行线特征匹配;当插入新的关键帧时,计算线特征描述子以完成关键帧间的线特征匹配,并利用线特征三角化算法生成地图线. 通过降低线特征匹配过程运算量来提高SLAM系统的实时性. 此外,利用线特征的深度测量信息构造虚拟右目线段,并提出新的线特征重投影误差计算方法. 在公开数据集上的实验结果表明,与ORB-SLAM2等主流方法相比,所提算法提高了RGB-D SLAM系统在弱纹理场景下的定位精度;与传统点线特征结合的SLAM方法相比,所提算法的时间效率提高了约20%.  相似文献   

2.
为了解决有效点较少的动态复杂场景下视觉SLAM准确定位问题,提出了一种基于自适应RANSAC动态特征点剔除的单目视觉SLAM算法.通过ARANSAC算法估计图像间的透视变换矩阵,并扭曲上一帧获得一个估计图像,使上一帧中的点转换到当前帧的坐标系下.通过计算特征点在估计图像和当前帧的光流值,区分并剔除ORB-SLAM2中的动态特征点,从而消除动态物体对SLAM定位性能的影响.利用TUM数据集的动态序列对本文算法进行仿真,并与ORB-SLAM2算法进行对比.结果表明,视觉SLAM算法绝对轨迹误差的标准偏差降低84.00%~96.11%,平移和旋转漂移的标准偏差最佳效果分别降低94.00%和96.44%,明显减少了视觉SLAM算法位姿估计的误差.本文算法能够在有效点较少的动态场景下,消除动态物体对视觉SLAM定位性能的影响,提高定位精度.  相似文献   

3.
时定位与地图构建 (SLAM),或同步建图与定位,目前主要应用于自动驾驶及机器人自主导航领域。由于激光雷达SLAM系统具有较高的测量准确性、对光照变化不敏感的特点,其在工业界获得了广泛的应用。但是基于激光雷达的SLAM算法有几个难以处理的问题:1) 在结构化信息较少或在变化场景下的定位的不准确性;2) 对于运动畸变的矫正能力还比较欠缺。该文针对以上问题做了两点改进:1) 当结构化信息较少时,改进了原始算法处理迭代退化的步骤,提出了静态门限与动态门限结合共同应对退化的方法;2) 在应对剧烈运动时,在1的基础上增加了一个局部地图优化的方法,给后端提供更精确的初始位姿和点云信息。实验结果表明,本文算法在剧烈运动和变化环境中有较好的鲁棒性及定位精度,同时免除了多传感器融合在SLAM中面临的激励不足的问题。  相似文献   

4.
SLAM技术已经应用到了智能机器人、无人机、AR/VR、无人驾驶等领域中,但当前的SLAM算法在运行速度、相机轨迹精度和鲁棒性等方面依然存在改善空间。为了提高SLAM中相机轨迹精度,提出了基于稀疏直接法的SLAM算法。该算法使用改进的Shi-Tomasi特征点检测算法进行特征点的提取,然后依据提取的特征点采用直接法进行相机位姿估计,同时利用构建的地图进行位姿优化,有效地提高了相机位姿估计精度。针对TUM标准数据集,通过对比分析可知,基于稀疏直接法的SLAM算法可以有效地减少误差,相机轨迹精度优于ORB-SLAM2算法。  相似文献   

5.
视觉SLAM(simultaneous localization and mapping)是智能车辆领域的研究热点,在包含运动目标干扰或近景特征不显著的场景中,容易产生帧间位姿估计结果精度不足或失效问题.为此,本文提出一种结合场景语义信息和路面结构化特征的SLAM算法.首先,针对上述特殊场景中运动目标干扰的情况,设计带有改进金字塔池化模块的语义分割神经网络,得到图像中各像素对应的目标类别,作为剔除运动像素点的依据,从而避免运动点参与特征匹配导致的位姿计算准确性下降问题;然后,针对有效近景特征点不足的情况,基于V视差算法确定图像中的道路平面区域并拟合出精确的视差方程,以计算路面上像素点的精确视差值,并提出一种基于路面结构化特征(车道线、马路边界、路面交通标记等)的位姿计算方法;最后通过场景实验得出,本文提出的改进算法计算结果的绝对轨迹误差小于原算法.证明该方法能够在存在运动目标干扰或缺乏近景特征的场景中具有较高的位姿估计精度,建立了有效的包含语义信息的稠密点云地图,具有良好的环境适应性.  相似文献   

6.
视觉里程计是SLAM (Simultaneous Localization and Mapping)领域中的基石,单目视觉里程计因其成本低廉和仅需较少的相机标定工作而占据着重要的地位,但它存在着尺度不确定、尺度漂移、鲁棒性差等缺点。本文在ORB_SLAM3的基础上,提出了一种基于深度特征的单目视觉惯导里程计,简称DF-VIO(Visual Inertial Odometry Based on Deep Features),它采用深度学习网络提取的深度特征替代传统的人工点特征,并融合了人工线特征,强化了系统在现实复杂场景下的鲁棒性;另外,系统提供了多种位姿跟踪方式,除了基于恒速模型和跟踪参考关键帧的方式外,还提供了一种基于深度学习网络的可重复性图的位姿跟踪方法,进一步提高了系统位姿跟踪的精度。在公开数据集Eu Ro C上进行对比实验,在纯视觉模式下,平均轨迹误差下降了25.9%,在视觉惯导模式下,平均轨迹误差下降了8.6%,证明了本文提出的系统在复杂的场景下能够具有更高的鲁棒性。  相似文献   

7.
针对现有的同时定位与建图(SLAM)算法实时性不高和在动态环境中定位精度会大幅降低的缺点,提出了一种复合深度学习与并行计算的DG-SLAM算法。采用基于深度学习的目标检测算法检测出行驶环境中的动态物体,在ORB-SLAM2图像帧间匹配前剔除动态物体特征点,降低动态物体对SLAM定位精度的影响;在ORB-SLAM2跟踪局部地图中采用三维空间下内部点的判别方法区分内点和外点,建立GPU并行计算模型以高效搜索局部地图点;利用Saturated核函数作用于重投影误差项的二范数平方和,确保局部地图优化位姿时重投影误差的并行计算。在KITII数据集上进行了算法验证,结果表明,DG-SLAM具有较高跟踪精度,且平均计算效率相同情况下对比ORB-SLAM2高3.4倍以上,超过85帧/s,可实现自动驾驶车辆在动态环境下SLAM系统的稳定运行。  相似文献   

8.
为解决室外场景中动态区域对视觉里程计计算过程的干扰,获得准确的相机位姿和场景深度,提出一种自监督深度学习框架下融合动态区域检测的视觉里程计算法.给定相邻2帧图像,首先,采用深度估计网络计算2幅图像对应深度图,采用位姿估计网络获得二者初始相对位姿.然后,借助视点变换,计算两视角深度图像之间的差异,确定动态区域.在此基础上,对输入图像中动静态区域进行分离.之后,匹配两视角图像静态区域特征,计算最终相机位姿.从光度、平滑度以及几何一致性三方面构造损失函数,并在损失函数中融入动态区域信息,对所构造网络模型进行端到端自监督训练.在KITTI数据集上验证了所提算法,并将其与最近2年提出的相关算法进行比较.实验结果表明,该算法能够更好地应对动态场景,实现更高精度的相机姿态估计和细小物体深度估计.  相似文献   

9.
针对传统的视觉里程计算法在动态环境下存在位姿估计精度不高且鲁棒性较差的问题,提出一种融合边缘信息的稠密视觉里程计算法.首先,使用深度信息计算像素点的空间坐标,并采用K-means算法进行场景聚类.分别基于光度信息与边缘信息的聚类构建出光度及几何一致性误差与边缘对齐误差,两者结合并进行正则化后得到数据融合的残差模型.将平均背景深度引入到残差模型中,用以扩大动、静部分残差差距而有利于正确的运动分割.然后,根据聚类残差分布的普遍特征,构建运动似然的非参数统计模型,通过动态阈值进行运动分割,剔除动态物体并得到聚类权重.最后,将加权聚类残差加入到位姿估计的非线性优化函数中,以降低动态物体的影响,提高位姿估计的精度.在TUM数据集上进行实验,结果表明本文算法在静态环境下以及富有挑战性的高动态环境下都能取得较好的结果,在动态环境下比现有算法具有更高的精度与鲁棒性.  相似文献   

10.
为了提高SLAM算法中的位姿估计精度,通过在广泛使用的RBPF粒子滤波器中,利用迭代中心差分卡尔曼滤波器(ICDKF)来代替其中的扩展卡尔曼滤波器(EKF),并融合新的观测数据使提议分布更加接近后验概率分布,并且能够精确估计智能车辆的位姿,进而采用ICDKF算法更新特征地图的位置.该算法在保证定位精度的同时减少了计算的复杂度,提高系统的估计性能,增加了迭代算法的稳定性.仿真实验结果验证了迭代中心差分粒子滤波SLAM算法的有效性.  相似文献   

11.
针对不同运动场景下以固定的点特征提取与匹配策略的ORB-SLAM算法存在系统跟踪定位误差较大的问题,考虑相机自身运动对视觉SLAM系统的影响,提出基于运动预测的改进ORB-SLAM算法.该方法利用上一帧的点特征利用率和匀速运动模型,预测出相邻2帧之间的共视范围,实时动态调整不同运动状态下的点特征提取阈值,在保证系统稳定性的情况下,提高系统的准确性.提出基于运动预测的点特征匹配优化策略,基于匀速运动模型快速确定出共视范围内的有效待匹配点,结合图像金字塔缩小匹配搜索范围,减少大量的无效匹配过程.在TUM数据集上进行对比实验,结果表明,提出的算法不仅实时性好,而且提高了系统的精度.  相似文献   

12.
针对直接法视觉里程计在光照变化场景下的失效问题,提出基于改进Census变换的单目视觉里程计,向量Census变换半直接单目视觉里程计(VC-SVO). Census变换是立体视觉领域中非参数变换的一种,可以有效减少光照变化对图像的影响. 将Census变换引入SLAM中的后端优化,改变传统Census变换的形式,转换到欧氏空间中表示,并采用新的误差计算方法. 在SVO算法中增添非平面假设模型,扩展SVO算法并融合改进后的Census变换,通过最小化地图点的Census变换误差来得到更准确的相机位姿,同时构建环境地图. 在EuRoC、New Tsukuba Stereo与TUM公开数据集上的图像实验表明,VC-SVO实现了光照变化情况下的位姿估计,验证了算法的有效性. VC-SVO算法的精度和鲁棒性要优于已开源的SVO和基于直接法的大范围定位和地图构建(LSD-SLAM)算法.  相似文献   

13.
同步定位与环境建模(SLAM)是实现无人机自主飞行和智能导航的关键技术。该文提出了适用于微型无人机的视觉定位与环境建模方法,针对RGB-D传感器使用point-plane ICP点云匹配算法实现视觉自主定位,利用并行计算加速以满足无人机控制的实时性要求;采用TSDF算法融合多帧观测的点云数据,实现了无人机对未知目标环境区域的模型重建;将视觉SLAM系统与无人机载IMU传感器融合,进一步提升了自主定位和建模精度。实际搭建了微型无人机视觉与环境建模验证系统,室内环境下可以达到0.092 m的定位偏差和60 Hz的更新速率,满足了无人机控制的精度和实时性要求,验证了该方法的有效性。  相似文献   

14.
一种非结构环境下目标识别和3D位姿估计方法   总被引:1,自引:1,他引:0  
为提高非结构环境下目标识别准确率和位姿估计精度,提出一种利用Kinect V2 RGB-D传感器并基于目标的CAD模型进行不同类型目标自动识别和3D位姿估计的新方法.利用虚拟相机获取目标CAD模型的深度图像,并将目标的模型转化为点云图,采用体素栅格滤波减少场景点云中的点数;利用点对特征描述子(PPF)作为CAD模型的全局描述子,并将相似的PPF划分成一组放进一个hash表,用于识别和定位目标,所有目标的hash表组成了3D模型数据库;利用基于投票策略的方法对不同类型目标进行检测识别和3D位姿估计,并采用位姿聚类的方法和ICP配准进行位姿修正,再通过奇异值滤波剔除误匹配位姿,从而提高位姿估计精度.在虚拟机器人实验平台仿真环境中分析了3种管接头的识别率和位姿估计误差,结果表明:3种管接头平均识别率96%,位置误差4 mm,姿态误差2°,能够满足机械臂抓取要求.将提出的方法与两种主流位姿估计方法进行了对比实验,结果表明,提出的方法无论是识别率还是F1分数都要优于其他两种方法.  相似文献   

15.
现有的大多数特征点提取算法适用于处理纹理丰富的图像,而对于弱纹理图像则无法提取有效的特征点. 对此,提出了多邻域结构张量特征(MNSTF)算法. 基于一系列固定的邻域和图像结构张量,通过表达局部图像的结构和纹理信息,解决了弱纹理和无纹理场景下特征点提取和匹配等相关问题;同时,通过计算邻域之间的相对方向,实现了MNSTF算法特征描述子的旋转不变性. 实验结果表明,MNSTF算法在经过旋转的弱纹理图像测试集上的特征点匹配准确率达到了99.9%以上,验证了其良好的适用性、旋转不变性和鲁棒性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号