首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
基于视觉/惯导的无人机组合导航算法研究   总被引:1,自引:0,他引:1       下载免费PDF全文
目前视觉惯性组合导航系统多采用优化紧/松耦合以及滤波紧/松耦合算法,应用误差状态卡尔曼滤波能够将较低频率的视觉位姿信息提升到与惯性信息同步的频率;提出一种基于自适应卡尔曼滤波的视觉惯导组合导航算法,首先考虑到系统建模与传感器测量误差,采用自适应渐消卡尔曼滤波进行导航解算,通过实时计算遗忘因子,以调节历史数据的权重,可抑制建模误差,提高组合导航系统性能,然后针对视觉SLAM解算过程造成的视觉位姿信息滞后于惯导信息的问题,提出一种延时补偿方法;仿真实验表明,采用延时补偿的自适应渐消卡尔曼滤波算法能够有效抑制建模误差,并降低视觉位姿信息滞后带来的影响,提高无人机组合导航的解算精度,姿态、速度、位置解算精度分别达到5°、0.5m/s、0.4m以内。  相似文献   

2.
现有基于双目立体视觉的测量方法的测量精度依赖于标定精度,在受遮挡时测量精度不高.文中首先分析并证明在双目立体视觉系统外部参数误差存在时,投影曲线上点的立体匹配误差对点的重建精度的影响.然后基于此误差分析结论,设计立体视觉空间圆位姿测量方法,通过轮廓点筛选算法筛选投影曲线上的点,得到匹配误差较小的点并进行重建.利用重建点在深度方向上对非线性优化得到最优投影平面的投影,对空间圆进行拟合,得到空间圆的位置姿态.文中方法有效减小三维点重建误差对空间圆拟合精度的影响,提高圆形特征在受遮挡情况下的测量精度.最后通过实验验证方法的有效性.  相似文献   

3.
目的 传统的单目视觉SLAM(simultaneous localization and mapping)跟踪失败后需要相机重新回到丢失的位置才能重定位并恢复建图,这极大限制了单目SLAM的应用场景。为解决这一问题,提出一种基于视觉惯性传感器融合的地图恢复融合算法。方法 当系统跟踪失败,仅由惯性传感器提供相机位姿,通过对系统重新初始化并结合惯性传感器提供的丢失部分的相机位姿将丢失前的地图融合到当前的地图中;为解决视觉跟踪丢失期间由惯性测量计算导致的相机位姿误差,提出了一种以关键帧之间的共视关系为依据的跳跃式的匹配搜索策略,快速获得匹配地图点,再通过非线性优化求解匹配点之间的运动估计,进行误差补偿,获得更加准确的相机位姿,并删减融合后重复的点云;最后建立前后两个地图中关键帧之间与地图点之间的联系,用于联合优化后续的跟踪建图过程中相机位姿和地图点位置。结果 利用Euroc数据集及其他数据进行地图精度和地图完整性实验,在精度方面,将本文算法得到的轨迹与ground truth和未丢失情况下得到的轨迹进行对比,结果表明,在SLAM系统跟踪失败的情况下,此方法能有效解决系统无法继续跟踪建图的问题,其精度可达厘米级别。在30 m2的室内环境中,仅有9 cm的误差,而在300 m2工厂环境中误差仅有7 cm。在完整性方面,在相机运动较剧烈的情况下,恢复地图的完整性优于ORB_SLAM的重定位算法,通过本文算法得到的地图关键帧数量比ORB_SLAM多30%。结论 本文提出的算法在单目视觉SLAM系统跟踪失败之后,仍然能够继续跟踪建图,不会丢失相机轨迹。此外,无需相机回到丢失之前的场景中,只需相机观察到部分丢失前场景,即可恢复融合所有地图。本文算法不仅保证了恢复地图的精度,还保证了建图的完整性。与传统的重定位方法相比,本文算法在系统建图较少时跟踪失败的情况下效果更好。  相似文献   

4.
基于光学运动跟踪系统的机器人末端位姿测量与误差补偿   总被引:1,自引:0,他引:1  
针对工业机器人绝对定位精度较低的问题,采用加拿大NDI公司的Optotrak Certus HD光学运动跟踪系统作为机器人位姿的测量设备,提出了一种基于再生权最小二乘法的最优剪枝极限学习机算法,通过该算法将机器人目标位姿映射到修正位姿上,实现了对机器人末端位姿补偿的效果.利用爱普生6轴机器人末端进行实验,在不同速度下完成直线轨迹运动、圆轨迹运动以及离散随机运动,对该误差补偿方法的有效性进行验证和分析.结果表明,该误差补偿方法均能提高机器人的位姿精度,其测试点在X、Y、Z三轴总方向上的绝对位置精度为0.06 mm~0.25 mm,比无补偿时的2 mm~3 mm有了1个数量级的提高;而姿态误差补偿后,其均方根误差和平均绝对误差均减小到未补偿时姿态误差的26.09%.同时,该补偿方法还可有效降低异常值的影响,具有良好的稳健性.  相似文献   

5.
基于位置的机械臂视觉伺服控制需要解决位姿估计和目标跟踪控制问题.为了克服机械臂运动过程中的运动空间约束,提出了基于滚动时域估计(MHE)的机械臂位姿估计方法.在位姿估计的基础上,利用对偶梯度上升方法以及拉格朗日乘子处理具有控制输入约束的优化问题,并给出了基于迭代线性二次调节(iLQR)的视觉伺服预测控制器设计方法.进一步,采用极点配置方法设计了扩张状态观测器(ESO)用于解决估计误差和线性化误差引起的扰动问题.进而,给出了保证闭环系统稳定的充分条件.最后,通过仿真对比验证了本文所提算法的有效性和优越性.  相似文献   

6.
后端轨迹优化是视觉同步定位与建图系统的重要组成部分,可以显著地提高定位精度.然而,现有的基于捆集约束法的优化方法在大场景中计算量大,并且无法应用于端到端视觉里程计.针对这个问题,提出了一种在前端采用2个视觉里程计的后端通用位姿图优化方法,可以应用于端到端视觉里程计.该方法采用一个高速低精度的端到端视觉里程计以高频率运行,同时一个低速高精度的视觉里程计以低频率运行,局部优化通过2个里程计提供的约束条件使用高斯-牛顿法迭代优化;在全局优化中基于关键帧进行场景匹配与局部优化同时进行.实验证明,应用该优化方法的同步定位与建图系统可以在KITTI数据集上实时运行,相较于2个视觉里程计都取得了精度上的较大提升,并且对比现今开源的几种应用后端轨迹优化的著名同步定位与建图方法,在轨迹误差、绝对轨迹误差、旋转误差和相对位姿误差上均取得了较低的误差,兼顾了传统方法精度的优势和端到端方法速度上的优点.除此以外,该优化方法还可以适用于其他更多的视觉里程计.  相似文献   

7.
目标位姿测量中的三维视觉方法   总被引:26,自引:0,他引:26       下载免费PDF全文
要测量出一组特征点分别在两个空间坐标系下的坐标,就可以求解两个空间目标间的位姿关系,实现上述目标位姿测量方法的前提条件是要保证该组特征点在不同坐标系下,其位置关系相同,但计算误差的存在却破坏了这种固定的位置关系,为此,提出了两种基于模型的三维视觉方法-基于模型的单目视觉和基于模型的双目视觉,前者从视觉计算的物理意义入手,通过简单的约束迭代求解实现模型约束,后者则将简单的约束最小二乘法和基于模型的单目视觉方法融合在一起来实现模型约束,引入模型约束后,单目视觉方法可以达到很高的测量精度,而基于模型的双目视觉较传统的无模型立体视觉方法位移精度提高有限,但姿态精度提高很多。  相似文献   

8.
考虑电子元件的多样化、精细化及PCB集合度越来越高,这对元件组装设备的精度要求不断提升;针对自动插件机视觉系统要求精度、实时性高,系统结构空间狭小等特点,基于旋转立体视觉建立了针脚末端三维坐标视觉系统的数学模型,并在旋转视觉的代数重构法基础上提出等价双目视觉的三角重构法;通过理论分析和仿真,推导并验证了旋转视觉的关键部件与关键参数的精度对针脚位姿测量精度影响的定量分析方法;借助于等价双目视觉的三角分析法,找到了在某些位置下针脚位姿测量精度发生异常的原因和规律;提出的重构方法及精度分析方法可为高精度旋转视觉的设计选型、优化和高效使用提供指导.  相似文献   

9.
刘艳娇  张云洲  荣磊  姜浩  邓毅 《机器人》2019,41(5):683-689
针对直接法完全依靠梯度搜索来计算相机位姿、容易陷入局部最优的缺点,本文将惯性测量单元(IMU)数据紧密关联到图像跟踪过程,提供精确的短期运动约束和较好的初始梯度方向信息,并对视觉位姿跟踪结果进行校正,提高单目视觉里程计的跟踪精度.在此基础上,基于相机和IMU测量结果建立传感器数据融合模型,采用滑动窗口的方式优化求解,同时在边缘化过程中根据当前帧与上一关键帧之间的相机帧间运动大小,选择应边缘化的状态量和应加入滑动窗口的状态量,确保在优化过程中有足够准确的先验信息,确保优化融合的效果.实验结果表明,与现有的视觉里程计算法相比,本文算法在数据集上的定位角度累积误差在3°左右,位移累积误差小于0.4 m.  相似文献   

10.
视觉和超声信息的融合与机器人伺服控制的研究   总被引:2,自引:1,他引:1  
陈维明  陈维南 《机器人》1994,16(1):8-13
本文对视觉和超声信息的融合与机器人的伺服控制进行了研究。通过视觉和多超声传感器信息的融合确定了工作平面上的物体在空间的位姿,并结合机器人的伺服控制选择了物体的特征向量,推导了物体特征向量的微分变化。基于这一微分变化,本文提出了改进型的最优控制算法。并对其稳定性进行了证明,仿真实验表明该控制算法效果良好,切实可行。  相似文献   

11.
杨浩  张峰  叶军涛 《机器人》2011,33(4):419-426
提出了一种鲁棒的基于无迹卡尔曼滤波器的摄像机(视觉传感器)-惯性测量单元相对位姿标定方法,为了减小重力加速度对标定精度的影响,该方法采用迭代卡尔曼滤波器对惯性传感器坐标系下的重力加速度进行实时估计,仿真实验和真实数据实验表明,在系统初始误差较大或系统受到严重非线性因素干扰时,该方法仍能够对视觉传感器和惯性测量单元之间的...  相似文献   

12.
针对于排爆机器人在进行排除爆破物质时,机械臂不能满足绝对准确的定位要求,位置检测精度与实际距离之间存在一定的误差。为了解决这一问题,提出排爆机器人机械臂定位精度误差自动补偿方法。基于D-H运动模型和微分变换法创建排爆机器人机械臂位姿误差模型,对误差模型进行重复参数分析,去除重复参数获得可辨识的线性方程;在可辨识的运动学参数误差模型线性方程中加入一个增量进行误差补偿。最后通过仿真实验结果表明,所提方法通过对机械臂位姿误差模型进行有效补偿,使排爆机器人机械臂绝对定位精度均值提升1.3mm。  相似文献   

13.
为解决并联机器人末端执行器受机构支路遮挡造成的双目视觉盲区末端位姿错误检测问题,提出一种运动学正解结合混合优化RBF神经网络(RBFNN)误差补偿的视觉盲区末端位姿检测方法。首先在非视觉盲区采集RBFNN训练样本,其中运动学正解为输入样本,运动学正解和视觉检测位姿的差值为输出样本;然后进行训练,并采用GWO(Grey Wolf Optimization)算法和LM(Levenberg-Marquardt)算法混合优化权值;最后将训练好的网络用于视觉盲区,通过对运动学正解进行误差补偿以提高末端位姿检测精度。实验结果表明,与未补偿的检测方法相比,混合优化RBFNN补偿后的末端位姿检测方法,其末端位姿分量x,y,z,γ的误差平均绝对值分别降低了54.4%、67.7%、54.7%和52.9%,误差标准差分别降低了52.9%、62.8%、51.9%和58.8%,验证了所提方法的有效性。  相似文献   

14.
杨小平  孙国祥 《计算机仿真》2012,(6):168-170,222
空间机器人手眼视觉系统利用合作目标物体上的合作特征点对目标物体进行位姿估计,以完成跟踪捕捉任务。针对空间机器人实时性的要求,给出了两种实时性较好的4个特征点的位姿测量算法,并且在相同仿真环境下对两种P4P位姿算法进行了分析比较。仿真结果表明:四面体体积测量的位姿测量算法对特征点的像点量化误差更加敏感,位姿测量结果偏差较大;坐标变换的位姿测量算法稳定,精度较高。后者在实际应用中,可以达到更高的精度。  相似文献   

15.
本文提出了基于固态传感器的航姿系统设计方案,介绍了基于四元数的航姿求解方法,设计了多传感器融合的卡尔曼滤波器。仿真结果表明,该算法在保证精度的同时能有效地估算出陀螺漂移。以TMS320F28335处理器为核心构建了硬件系统。实验结果表明,该设计能满足航姿系统对精度和速度的要求。  相似文献   

16.
高成强  张云洲  王晓哲  邓毅  姜浩 《机器人》2019,41(3):372-383
为了解决室内动态环境下移动机器人的准确定位问题,提出了一种融合运动检测算法的半直接法RGB-D视觉SLAM(同时定位与地图创建)算法,它由运动检测、相机位姿估计、基于TSDF (truncated signed distance function)模型的稠密地图构建3个步骤组成.首先,通过最小化图像光度误差,利用稀疏图像对齐算法实现对相机位姿的初步估计.然后,使用视觉里程计的位姿估计对图像进行运动补偿,建立基于图像块实时更新的高斯模型,依据方差变化分割出图像中的运动物体,进而剔除投影在图像运动区域的局部地图点,通过最小化重投影误差对相机位姿进行进一步优化,提升相机位姿估计精度.最后,使用相机位姿和RGB-D相机图像信息构建TSDF稠密地图,利用图像运动检测结果和地图体素块的颜色变化,完成地图在动态环境下的实时更新.实验结果表明,在室内动态环境下,本文算法能够有效提高相机位姿估计精度,实现稠密地图的实时更新,在提升系统鲁棒性的同时也提升了环境重构的准确性.  相似文献   

17.
在融合惯性、视觉、磁场信息以及嵌入式技术的多传感器定位系统中,标定模型的准确性会影响传感器测量精度。以非线性最小二乘法为基础,提出了一种低成本高精度的标定方法。首先,分析系统各项参数,以加速度计为例建立模型,并利用重力加速度作中间量对传感器确定性项进行标定。通过仿真实验分析,结果表明提出的方法实用可行,能降低误差,提高系统传感器精度。  相似文献   

18.
目的 视觉定位旨在利用易于获取的RGB图像对运动物体进行目标定位及姿态估计。室内场景中普遍存在的物体遮挡、弱纹理区域等干扰极易造成目标关键点的错误估计,严重影响了视觉定位的精度。针对这一问题,本文提出一种主被动融合的室内定位系统,结合固定视角和移动视角的方案优势,实现室内场景中运动目标的精准定位。方法 提出一种基于平面先验的物体位姿估计方法,在关键点检测的单目定位框架基础上,使用平面约束进行3自由度姿态优化,提升固定视角下室内平面中运动目标的定位稳定性。基于无损卡尔曼滤波算法设计了一套数据融合定位系统,将从固定视角得到的被动式定位结果与从移动视角得到的主动式定位结果进行融合,提升了运动目标的位姿估计结果的可靠性。结果 本文提出的主被动融合室内视觉定位系统在iGibson仿真数据集上的平均定位精度为2~3 cm,定位误差在10 cm内的准确率为99%;在真实场景中平均定位精度为3~4 cm,定位误差在10 cm内的准确率在90%以上,实现了cm级的定位精度。结论 提出的室内视觉定位系统融合了被动式和主动式定位方法的优势,能够以较低设备成本实现室内场景中高精度的目标定位结果,并在遮挡、目标...  相似文献   

19.
针对移动机器人位姿镇定问题, 本文提出基于视觉同时定位与建图(simultaneous localization and mapping, SLAM)–伺服框架的指令滤波反步控制策略. 具体而言, 通过加速度层控制器设计进而积分得到的光滑速度信号, 减小SLAM视觉模块的预测位姿误差; 继而应用指令滤波器简化控制器设计的复杂求导运算, 减轻计算负担; 此外, SLAM模块利用运动信息与视觉信息的融合解决未知尺度问题, 降低未知深度造成的控制器设计复杂度. 通过李雅普诺夫理论可以证明闭环系统的稳定性. 仿真和实验结果最终验证了本文算法的有效性.  相似文献   

20.
针对移动机器人在室外环境下全局位姿定位精度低、定位耗时长的问题,提出一种基于多传感器融合的机器人定位算法。首先构建移动机器人的运动模型,并选用里程计、惯性测量单元IMU和激光雷达作为移动机器人的基础传感器;然后采用自适应蒙特卡罗定位算法对传感器融合位姿进行位姿误差计算,获取移动机器人初始位姿;最后进行激光点云匹配,获取全局地图,并利用基于全局正态分布地图的NDT算法进行初始位姿修正,最终实现全局位姿校正和高精度定位。结果表明,基于多传感器融合的移动机器人定位误差控制在0.04 m范围内,定位时长均值为0.045 s,定位误差较小,定位损耗时间较少。由此说明,本定位算法可提升移动机器人的定位精度和定位效率,可实现移动机器人全局位姿快速、精确定位,提出的定位算法具备一定的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号