首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
SLAM技术已经应用到了智能机器人、无人机、AR/VR、无人驾驶等领域中,但当前的SLAM算法在运行速度、相机轨迹精度和鲁棒性等方面依然存在改善空间。为了提高SLAM中相机轨迹精度,提出了基于稀疏直接法的SLAM算法。该算法使用改进的Shi-Tomasi特征点检测算法进行特征点的提取,然后依据提取的特征点采用直接法进行相机位姿估计,同时利用构建的地图进行位姿优化,有效地提高了相机位姿估计精度。针对TUM标准数据集,通过对比分析可知,基于稀疏直接法的SLAM算法可以有效地减少误差,相机轨迹精度优于ORB-SLAM2算法。  相似文献   

2.
TOF相机能够同时采集灰度图像和深度图像从而优化相机位姿的估计值. 应用图结构调整框架优化多帧数据采集时的相机位姿,采用帧间配准决定优化的精度和效率. 从2帧图像上提取并匹配尺度不变特征点对,二维特征点被扩展到三维空间后,利用与特征点的空间位置关系将2帧三维点云配准;逐步应用提出的算法配准参与位姿优化的多帧点云中的任意2帧点云;最后将有效配准的点云帧对作为输入数据,采用图结构算法优化位姿. 实验结果表明,提出的帧间配准算法使得位姿估计值精度显著提高,同时保证了估计效率.  相似文献   

3.
针对传统滤波方法在解决移动机器人同时定位与地图构建(SLAM)中存在的累积误差问题,将图优化方法应用于前端和后端优化中,以提高移动机器人位姿估计和建图的准确性。运用ORB算法进行图像的特征提取与匹配,将图优化的方法应用到PnP问题的求解中,实现了机器人位姿的准确估计。基于词典(Bag of words)的闭环检测算法来进行闭环检测,得到存在的大回环,同时利用相邻几帧的匹配关系实时检测邻近几帧之间可能存在的局部回环。用图优化的方法对这些回环进行优化,得到准确的运动轨迹和点云地图。实验结果表明:基于前后端图优化的RGB-D三维SLAM算法,在室内环境下具有良好的精度和实时性。  相似文献   

4.
相机高速移动引起的运动模糊在现实环境的中低端设备中经常出现,是影响实时定位与制图(Simultaneous Localization and Mapping SLAM)高精度运行的重要因素.现有的一些应对模糊的方法通常需要较大的计算量,不适用于计算性能有限的移动端、无人机等平台,这在一定程度上影响了SLAM算法的应用.本文通过序列图像分析运动模糊的产生原理,建立相邻图像特征坐标差与模糊尺度之间的量化关系表,利用相邻图像间匹配点的位置关系定量计算E_(BL)参数来表示图像的模糊程度并与帧筛除算法组成E_(BL)-帧筛除算法,在SLAM过程中不断筛除模糊较大的帧来应对运动模糊.在由于运动产生图像模糊的情况下,通过适当增加一些运算量,本文的方法可以提升SLAM系统的定位和建模精度.实验证明了E_(BL)参数对模糊表达的有效性,以及本文算法对SLAM系统精度的提升.结果表明,算法可以明显地降低相机轨迹估计的整体误差,对于模糊影响较严重的数据集,在合适的窗口大小下,用E_(BL)-帧筛除算法剔除部分帧后,通过余下的清晰帧计算得到的相机位姿整体误差下降了20%.  相似文献   

5.
为了解决有效点较少的动态复杂场景下视觉SLAM准确定位问题,提出了一种基于自适应RANSAC动态特征点剔除的单目视觉SLAM算法.通过ARANSAC算法估计图像间的透视变换矩阵,并扭曲上一帧获得一个估计图像,使上一帧中的点转换到当前帧的坐标系下.通过计算特征点在估计图像和当前帧的光流值,区分并剔除ORB-SLAM2中的动态特征点,从而消除动态物体对SLAM定位性能的影响.利用TUM数据集的动态序列对本文算法进行仿真,并与ORB-SLAM2算法进行对比.结果表明,视觉SLAM算法绝对轨迹误差的标准偏差降低84.00%~96.11%,平移和旋转漂移的标准偏差最佳效果分别降低94.00%和96.44%,明显减少了视觉SLAM算法位姿估计的误差.本文算法能够在有效点较少的动态场景下,消除动态物体对视觉SLAM定位性能的影响,提高定位精度.  相似文献   

6.
针对传统视觉SLAM算法在视角变换和光照变化时易导致位姿估计精度低甚至跟踪失败等问题,启发于SuperPoint网络在特征提取上的强鲁棒性,提出一种基于轻量级SuperPoint网络的视觉SLAM算法(Light Weight SuperPoint network based-on visual SLAM,LWS-vSLAM)。首先,为解决SuperPoint网络编码层计算量过大引起的系统实时性下降问题,采用LWS-NET轻量化特征提取网络,该网络编码层采用轻量级注意力模型对图像特征进行降采样来减小计算量。其次,为解决在视角变换和光照变化环境下存在较多误匹配问题,利用LWS-NET网络的特征检测分类层的插值计算完成图像中优质特征点的筛选,并以优质特征点为中心进行区域内误匹配剔除。最后,将LWS-NET特征提取与匹配网络与ORB-SLAM2系统后端非线性优化、闭环修正和局部建图进行融合,设计一个完整的单目视觉LWS-vSLAM系统。在公共评测数据集TUM、KITTI中进行仿真实验,实验结果表明,算法平均每帧运行时间相较于SuperPoint缩短约30%,轨迹误差相较于ORB-SLAM2减...  相似文献   

7.
针对不同运动场景下以固定的点特征提取与匹配策略的ORB-SLAM算法存在系统跟踪定位误差较大的问题,考虑相机自身运动对视觉SLAM系统的影响,提出基于运动预测的改进ORB-SLAM算法.该方法利用上一帧的点特征利用率和匀速运动模型,预测出相邻2帧之间的共视范围,实时动态调整不同运动状态下的点特征提取阈值,在保证系统稳定性的情况下,提高系统的准确性.提出基于运动预测的点特征匹配优化策略,基于匀速运动模型快速确定出共视范围内的有效待匹配点,结合图像金字塔缩小匹配搜索范围,减少大量的无效匹配过程.在TUM数据集上进行对比实验,结果表明,提出的算法不仅实时性好,而且提高了系统的精度.  相似文献   

8.

针对基于静态场景假设的传统的同时定位与地图构建(simultaneous localization and mapping,SLAM)在动态场景中鲁棒性差、位姿估计准确率低的问题,提出了一种基于深度学习的语义视觉SLAM方法.该方法将语义分割技术与运动一致性检测算法相结合,首先用Mask R-CNN网络对图像进行语义分割,建立动态对象的先验语义信息,然后通过运动一致性检测算法进一步剔除属于动态物体的特征点,最后用静态特征点进行特征匹配和位姿估计.基于慕尼黑工业大学(Technical University of Munich,TUM)公开数据集对系统进行实验,结果表明,该系统在动态环境中较传统的ORB-SLAM2系统和DS-SLAM系统明显降低了绝对轨迹误差和相对位姿误差,提高了SLAM系统位姿估计的准确性和鲁棒性.

  相似文献   

9.
针对大部分基于单目相机的位姿估计方法只适用于平面场景的问题,提出了一种同时适用于 平面场景和立体场景的单目位姿估计方法.首先,将所有图像与参考帧进行特征匹配;然后,提取每 帧图像中都出现的特征点的像素坐标,并结合地平面约束和相机内参矩阵构建出观测矩阵;其次, 对观测矩阵进行奇异值分解得到各帧图像的位姿估计,并利用约束矩阵解决奇异值分解不唯一问 题;最后,利用光束平差法优化图像位姿,得到机器人位姿的最优估计.实验结果表明:该方法能准 确对移动机器人进行位姿估计.  相似文献   

10.
针对从影像中恢复摄像机位姿的问题,提出基于三视图几何约束的位姿估计算法.利用强制选择机制对影像进行特征点提取,通过光流法和前后向误差实现相邻三帧影像的特征点匹配;推导基于本质矩阵优化分解的位姿估计,利用对极几何约束构建目标函数,通过迭代优化确定旋转矩阵的唯一解,优化了唯一解的确定方法,提高了相对位姿估计效率,得到第1、2摄像机矩阵;基于三视图的几何约束关系,由三焦点张量和匹配特征点建立目标函数,由迭代过程得到第3摄像机相对于第1摄像机的位姿参数.结果表明,提出算法的鲁棒性、精度以及算法效率均优于传统算法,能够快速、准确地估计摄像机相对位姿,可以实现对旋翼无人机的轨迹跟踪.  相似文献   

11.
针对直接法视觉里程计在光照变化场景下的失效问题,提出基于改进Census变换的单目视觉里程计,向量Census变换半直接单目视觉里程计(VC-SVO). Census变换是立体视觉领域中非参数变换的一种,可以有效减少光照变化对图像的影响. 将Census变换引入SLAM中的后端优化,改变传统Census变换的形式,转换到欧氏空间中表示,并采用新的误差计算方法. 在SVO算法中增添非平面假设模型,扩展SVO算法并融合改进后的Census变换,通过最小化地图点的Census变换误差来得到更准确的相机位姿,同时构建环境地图. 在EuRoC、New Tsukuba Stereo与TUM公开数据集上的图像实验表明,VC-SVO实现了光照变化情况下的位姿估计,验证了算法的有效性. VC-SVO算法的精度和鲁棒性要优于已开源的SVO和基于直接法的大范围定位和地图构建(LSD-SLAM)算法.  相似文献   

12.
移动机器人单目视觉同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)技术在应用过程中会获取大量数据,针对其带来的异常值干扰问题,提出一种基于新提出的随机抽样一致性(Random Sample Consensus,RANSAC)算法改进的半直接单目视觉里程计(Semi-direct Monocular Visual Odometry,SVO)算法。算法分为两个线程:建图线程提取点特征与边缘特征,并采用了图割RANSAC(Graph-Cut RANSAC,GC-RANSAC)算法进行异常值剔除,通过计算特征点的深度值,来构建的环境特征地图;位姿估计线程通过最小化局部地图点和边缘线的重投影误差以及帧与帧、特征与特征之间的约束关系优化,得到位姿信息,实现定位功能。通过Euroc公开数据集上得到的仿真实验结果可见,该算法剔除异常值效果明显,平均定位精度相比SVO算法提高了15.6%。  相似文献   

13.
随着机器视觉的高速发展,视觉同步定位与地图构建(visual simultaneous localization and mapping,V-SLAM)成为室内定位、导航应用的研究热点。针对传统ORB算法提取特征点分布不均匀的问题,在前端采用四叉树算法管理特征点,实现特征点均匀化分布,并结合渐进抽样一致性(progressive sample consensus,PROSAC)算法剔除误匹配特征点;在后端,采用构建词袋(bag of words,BoW)法对关键帧进行回环检测,判断帧与帧之间是否存在回环,并采用光束平差(bundle adjustment,BA)法进行相机位姿优化,修正相机位姿。在图像特征点提取和匹配实验中,通过与传统ORB算法及其他方法对比,证明本文算法具有较好的运算效率。与ORB_SLAM-modified算法进行轨迹对比实验,分析生成的点云图,结果表明,本文算法具有较高的可靠性和精确度。  相似文献   

14.
近年来通过利用视觉信息估计相机的位姿,实现对无人车的定位成为研究热点,视觉里程计是其中的重要组成部分.传统的视觉里程计需要复杂的流程如特征提取、特征匹配、后端优化,难以求解出最优情况.因此,提出融合注意力和长短时记忆网络的视觉里程计,通过注意力机制增强的卷积网络从帧间变化中提取运动特征,然后使用长短时记忆网络进行时序建模,输入RGB图片序列,模型端到端地输出位姿.在公开的无人驾驶KITTI数据集上完成实验,并与其他算法进行对比.结果表明,该方法在位姿估计上的误差低于其他单目算法,定性分析显示该算法具有较好的泛化能力.  相似文献   

15.
为了提高同时定位与建图(SLAM)系统在动态场景下的定位精度和鲁棒性,提出新的RGB-D SLAM算法. 建立基于重投影深度差值的累积模型,分割图像的动静态区域;为了避免动态区域过分割,先剔除与匹配地图点欧氏距离过大的动态区域特征点,再根据t分布估计其余特征点的静态概率;将静态区域特征点和动态区域的疑似静态点以不同权重加入位姿优化,得到提纯后的位姿. 在公开数据集上的实验结果表明,所提算法在动态场景下较改进前的RGB-D ORB-SLAM2算法的定位精度提升96.1%,较其他动态SLAM算法提升31.2%,有效提高了视觉SLAM系统在动态环境下的定位精度和鲁棒性.  相似文献   

16.

近年来通过利用视觉信息估计相机的位姿,实现对无人车的定位成为研究热点,视觉里程计是其中的重要组成部分.传统的视觉里程计需要复杂的流程如特征提取、特征匹配、后端优化,难以求解出最优情况.因此,提出融合注意力和长短时记忆网络的视觉里程计,通过注意力机制增强的卷积网络从帧间变化中提取运动特征,然后使用长短时记忆网络进行时序建模,输入RGB图片序列,模型端到端地输出位姿.在公开的无人驾驶KITTI数据集上完成实验,并与其他算法进行对比.结果表明,该方法在位姿估计上的误差低于其他单目算法,定性分析显示该算法具有较好的泛化能力.

  相似文献   

17.
即时定位与地图构建是移动机器人自主导航的关键技术,利用单一激光雷达提取的原始特征点云求解帧间运动会产生位姿估计失准。将IMU预积分信息通过线性插值的方法对失真激光点云进行运动补偿,矫正移动机器人自身位姿;采用基于线面特征的点云提取与匹配,提高定位精度;增加回环检测模块,利用ICP算法对存在回环的两关键帧建立约束,以减少系统长期运行造成的累计误差;构建整体代价函数,对全局系统误差进行优化。回环检测插值算法降低了位姿估计失准对系统性能的影响,提高了移动机器人的定位精度,绝对位姿误差更小,保证了构建地图的全局一致性。  相似文献   

18.
为解决室外场景中动态区域对视觉里程计计算过程的干扰,获得准确的相机位姿和场景深度,提出一种自监督深度学习框架下融合动态区域检测的视觉里程计算法.给定相邻2帧图像,首先,采用深度估计网络计算2幅图像对应深度图,采用位姿估计网络获得二者初始相对位姿.然后,借助视点变换,计算两视角深度图像之间的差异,确定动态区域.在此基础上,对输入图像中动静态区域进行分离.之后,匹配两视角图像静态区域特征,计算最终相机位姿.从光度、平滑度以及几何一致性三方面构造损失函数,并在损失函数中融入动态区域信息,对所构造网络模型进行端到端自监督训练.在KITTI数据集上验证了所提算法,并将其与最近2年提出的相关算法进行比较.实验结果表明,该算法能够更好地应对动态场景,实现更高精度的相机姿态估计和细小物体深度估计.  相似文献   

19.
针对现有的同时定位与建图(SLAM)算法实时性不高和在动态环境中定位精度会大幅降低的缺点,提出了一种复合深度学习与并行计算的DG-SLAM算法。采用基于深度学习的目标检测算法检测出行驶环境中的动态物体,在ORB-SLAM2图像帧间匹配前剔除动态物体特征点,降低动态物体对SLAM定位精度的影响;在ORB-SLAM2跟踪局部地图中采用三维空间下内部点的判别方法区分内点和外点,建立GPU并行计算模型以高效搜索局部地图点;利用Saturated核函数作用于重投影误差项的二范数平方和,确保局部地图优化位姿时重投影误差的并行计算。在KITII数据集上进行了算法验证,结果表明,DG-SLAM具有较高跟踪精度,且平均计算效率相同情况下对比ORB-SLAM2高3.4倍以上,超过85帧/s,可实现自动驾驶车辆在动态环境下SLAM系统的稳定运行。  相似文献   

20.
针对平面运动轮式机器人的二维运动特点,对视觉里程计进行降维处理.使用汉明距与等高约束条件相结合,滤除误匹配特征点对与彩色图匹配正确但深度图误差较大的匹配特征点对.降维处理后使用二维ICP算法进行相机帧间运动估计.通过实验进行验证,可有效地提高平面运动轮式机器人视觉里程计的运算速度与计算精度.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号