首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 265 毫秒
1.
为了提高同时定位与建图(SLAM)系统在动态场景下的定位精度和鲁棒性,提出新的RGB-D SLAM算法. 建立基于重投影深度差值的累积模型,分割图像的动静态区域;为了避免动态区域过分割,先剔除与匹配地图点欧氏距离过大的动态区域特征点,再根据t分布估计其余特征点的静态概率;将静态区域特征点和动态区域的疑似静态点以不同权重加入位姿优化,得到提纯后的位姿. 在公开数据集上的实验结果表明,所提算法在动态场景下较改进前的RGB-D ORB-SLAM2算法的定位精度提升96.1%,较其他动态SLAM算法提升31.2%,有效提高了视觉SLAM系统在动态环境下的定位精度和鲁棒性.  相似文献   

2.
针对基于监督学习的视觉里程计需要数据集提供真实的位姿数据,但实际上符合条件的样本数量又较少的问题,提出了一种基于自监督循环卷积神经网络的位姿估计方法.该方法以图像序列为输入,首先通过卷积神经网络提取与运动相关的特征,然后使用卷积长短期记忆网络进行时序建模,建立多帧之间的运动约束,最后输出六自由度的位姿.该模型使用了一种基于对极几何的损失函数以自监督学习方式优化网络参数.将模型在KITTI数据集上进行实验,并与其他4种算法进行对比.结果表明,该方法在位姿估计准确性上优于其他单目算法,并且具有不错的泛化能力.  相似文献   

3.
为了解决有效点较少的动态复杂场景下视觉SLAM准确定位问题,提出了一种基于自适应RANSAC动态特征点剔除的单目视觉SLAM算法.通过ARANSAC算法估计图像间的透视变换矩阵,并扭曲上一帧获得一个估计图像,使上一帧中的点转换到当前帧的坐标系下.通过计算特征点在估计图像和当前帧的光流值,区分并剔除ORB-SLAM2中的动态特征点,从而消除动态物体对SLAM定位性能的影响.利用TUM数据集的动态序列对本文算法进行仿真,并与ORB-SLAM2算法进行对比.结果表明,视觉SLAM算法绝对轨迹误差的标准偏差降低84.00%~96.11%,平移和旋转漂移的标准偏差最佳效果分别降低94.00%和96.44%,明显减少了视觉SLAM算法位姿估计的误差.本文算法能够在有效点较少的动态场景下,消除动态物体对视觉SLAM定位性能的影响,提高定位精度.  相似文献   

4.
针对当前的无监督单目深度估计方法边界模糊的问题, 提出了一种基于双重注意力模块的网络架构。这种架构能有效利用图像特征的远程上下文信息解决深度估计中的边界模糊问题。整个框架使用基于视图合成的无监督方法训练, 模型框架包括深度估计网络与位姿估计网络, 同步估计深度和相机位姿变换。双重注意力模块嵌入在深度估计网络中, 包含位置注意力模块和通道注意力模块, 能表示远程空间位置和不同特征图间的上下文信息, 从而使网络估计出细节更好的深度信息。在KITTI数据集以及Make3D数据集上的实验结果表明, 本文的方法能有效提高单目深度估计的精度和解决深度估计边界模糊问题。  相似文献   

5.
近年来通过利用视觉信息估计相机的位姿,实现对无人车的定位成为研究热点,视觉里程计是其中的重要组成部分.传统的视觉里程计需要复杂的流程如特征提取、特征匹配、后端优化,难以求解出最优情况.因此,提出融合注意力和长短时记忆网络的视觉里程计,通过注意力机制增强的卷积网络从帧间变化中提取运动特征,然后使用长短时记忆网络进行时序建模,输入RGB图片序列,模型端到端地输出位姿.在公开的无人驾驶KITTI数据集上完成实验,并与其他算法进行对比.结果表明,该方法在位姿估计上的误差低于其他单目算法,定性分析显示该算法具有较好的泛化能力.  相似文献   

6.
针对视觉同步定位与地图构建(Simultaneous Localization and Mapping, SLAM)方法在相机快速运动中容易导致图像模糊,以及在稠密场景中线特征提取易造成信息冗余等问题,提出一种融合梯度密度的点线视觉SLAM算法改进。该算法首先利用前后图像帧之间特征点数量信息对模糊图像进行筛选,并使用高斯模糊进行优化处理,得到匹配效果更佳的图像帧。然后利用点特征信息判断是否引入线特征,并引入图像像素梯度密度对LSD(Line Segment Detection)线特征进行多维优化,提取出稳定线特征以提高后续匹配质量。最后结合点线特征误差构建误差函数,最小化投影误差提高位姿估计精度。算法在TUM数据集下进行测试,实验结果表明本算法可以有效提升特征提取的稳健性,进而提高相机位姿估计与建图的精度。  相似文献   

7.
为解决机械臂在大小目标共存的3D混杂场景中无法利用3D视觉传感器直接感知分布于操作视场范围内的小目标这一难题,提出一种基于"固定安装的全局Kinect深度相机"与"安装在机械臂末端执行器上的移动相机(手眼相机)"相结合的视觉系统混合配置方法.固定的全局Kinect深度相机用于感知并获取视场范围内的大目标点云,进而识别估计其位姿,然后借助路径规划技术引导机械臂到达大目标的上方,启动手眼相机近距离获取小目标的图像;离线阶段获取小目标的CAD模型,虚拟2D相机在以目标中心为球心的虚拟球表面的不同位姿和不同半径处拍摄目标的一系列二维视图,并且储存在目标的3D形状模板数据库中;在线阶段从真实手眼相机拍摄的场景图像中基于图像金字塔分层逐一搜索匹配,找到与目标模板相匹配的所有实例并计算其二维位姿,经过一系列转换后得到在相机坐标系下的初始三维位姿,应用非线性最小二乘法对其进行位姿修正.由ABB机械臂和微软Kinect V2传感器以及维视图像公司的工业相机进行位姿估计精度实验和混杂目标分拣实验,利用棋盘标定板来测定目标真实的位姿.实验结果表明,位置精度0.48 mm,姿态精度0.62°,平均识别时间1.85 s,识别率达到98%,远高于传统的基于特征和基于描述符的位姿估计方法,从而证明了提出方法的有效性和可行性.  相似文献   

8.
针对传统的物体体积计算方法难以准确计算实际邮寄中非规则包裹(简称异形件)体积的问题,本文提出了一种新的基于深度相机的异形件体积计算方法.通过深度相机获取深度图像,利用计算机视觉中的膨胀及腐蚀等图像处理方法对深度图像进行形态学处理,去除实验场景中存在的大量噪声,利用体积与深度值的关系计算出包裹的体积,最后将该算法在青岛邮...  相似文献   

9.
当前TOF等深度相机仅能获取低分辨率的深度图像,无法满足三维视觉系统的需求.高分辨率深度图像可通过深度图像的超分辨算法获得,但当前算法的实验输出图像存在因纹理复制导致图像局部区域产生伪像以及边缘结构不清晰等问题.基于HR深度伪矩阵提出自适应参数与边缘点引导的深度值重建的算法,通过低分辨率深度图像边缘区域的像素点寻找修正...  相似文献   

10.
TOF相机能够同时采集灰度图像和深度图像从而优化相机位姿的估计值. 应用图结构调整框架优化多帧数据采集时的相机位姿,采用帧间配准决定优化的精度和效率. 从2帧图像上提取并匹配尺度不变特征点对,二维特征点被扩展到三维空间后,利用与特征点的空间位置关系将2帧三维点云配准;逐步应用提出的算法配准参与位姿优化的多帧点云中的任意2帧点云;最后将有效配准的点云帧对作为输入数据,采用图结构算法优化位姿. 实验结果表明,提出的帧间配准算法使得位姿估计值精度显著提高,同时保证了估计效率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号