共查询到20条相似文献,搜索用时 31 毫秒
1.
一种基于直线特征的单目视觉位姿测量方法 总被引:2,自引:1,他引:1
提出了一种基于直线特征的单目视觉位姿测量方法SoftNewton。构造了新颖的目标直线与图像直线匹配评价函数,避免检测图像中直线的端点,最终通过软决策技术确定直线特征匹配关系,并采用高斯牛顿迭代算法基于全透视成像模型解算目标位姿。和POSIT算法相比,高斯牛顿迭代算法保持了旋转矩阵的正交性,提高位姿解算精度。仿真图像实验中,在干扰直线和噪声存在的情况下算法经过29次迭代解算得到正确的直线特征匹配矩阵,姿态误差小于0.2°,位移误差小于0.5 mm。仿真图像和实际图像实验结果均表明SoftNew-ton具有较高解算精度和较强的鲁棒性。 相似文献
2.
为保证无人机着陆精度和安全性,提出了一种无人机自主着陆视觉导航位姿解算方法。首先对机载相机进行标定,获取相机参数;然后综合考虑地标形状和尺寸、地标角点几何分布和角点数量对位姿估计精度的影响,设计了T型着陆地标形状和尺寸参数,将地标轮廓提取和角点检测算法相结合,得到几何分布好、数量适中的8个角点用于位姿解算,保证了位姿解算精度;为减少LK (Lucas-Kanade)光流法稳定跟踪地标的处理时间,直接将提取的这8个角点作为LK光流法检测和跟踪的输入,保证了算法实时性;最后利用三维空间到二维像平面投影关系对飞行位姿参数进行实时解算。实验结果表明:算法具有较高估计精度,算法平均周期为76.756 ms (约13帧/s),在速度较低的着陆阶段基本满足自主着陆视觉导航的实时性要求。 相似文献
3.
在基于视觉图像的位姿测量中,非线性位姿测量算法的全局收敛存在不确定性,测量结果取决于初值的选取,不能保证位姿测量的鲁棒性。线性位姿测量算法对图像处理的要求比较高,如果定位特征点图像坐标提取不够精确,会导致位姿测量精度降低。在自然光条件下,相机采集定位特征点图像,图像中高亮度区域的存在对定位特征点提取精度产生影响,进而使有效定位特征点数量减少,影响位姿测量精度。针对上述问题,文中提出了一种基于最佳偏振角的线性位姿测量方法:在相机镜头前加装线偏振片,根据Stokes矢量建立偏振片最佳偏振角度求解模型,在使用最佳偏振角度的前提下采集定位特征点图像,提取图像坐标;建立线性位姿求解模型,计算被测物体位姿。实验结果表明,该方法能够有效减少图像中的高亮度区域,改善成像质量,提高线性位姿测量精度,在?60°~+60°的测量范围内,角度测量误差小于±0.16°,在0~20 mm的测量范围内,位移测量误差小于±0.05 mm。 相似文献
4.
目标特征点三维坐标的测量精度直接影响目标位姿的解算,准确确定影响目标位姿的误差因素,对各项误差进行合理分配及综合,是提高目标测量精度的关键。目前,像点提取精度、特征点匹配精度根据现有算法已达到瓶颈,而在摄像机内部结构及标定等方面提高测量精度还有较大的研究空间。通过建立成像点坐标测量方程,综合分析各误差因素对目标位置的影响。通过实验分析与仿真,摄像机内部结构误差及标定误差对成像点坐标的影响在一个像素内,当f=0.031 9 m,目标距离为20 m时,目标位置总体测量精度为0.029 4 m。对光学成像系统内部结构的设计及电子器件的选型具有较大参考价值。 相似文献
5.
针对大尺寸平面零件尺寸测量系统标定精度不高的问题,提出了一种基于深度信息的系统标定方法。首先利用圆形平面靶标,提出一种提取靶标图像特征点的新方法,采用自适应阈值的边缘检测和多项式拟合算法提取特征点亚像素轮廓,利用椭圆拟合得到中心坐标;然后根据带有畸变的非线性成像几何模型,采用最小二乘法计算摄像机参数的最优解,获得靶标的位姿;最后提出被测物表面与靶标平面之间的深度信息作为摄像机模型修正项,校正测量平面位姿,利用成像原理和直线与零件表面交点确定零件尺寸。设计了单目视觉尺寸测量系统并进行实验,结果表明:标定反投影误差小于0.02 pixel,在10.75 m2的视场内,系统测量精度达到了0.05 mm。 相似文献
6.
以大型光学模块转运时基于视觉的位姿测量为背景,利用目标底部同一平面的两个圆特征,针对大目标近距离对接时的环境限制,提出一种基于距离和角度约束的多相机非共视场位姿检测方法。对接时球头与锥孔正确对接,将两个相机分别固定于球头机构的内部后采集锥孔边缘的圆特征,利用非共视场成像的多相机标定获取两相机位置关系,融合多个相机的位姿信息,利用两圆共面和两相机位置关系约束剔除空间圆位姿解算时的虚假解。实验验证了该方法的精度,在1140mm的工作距离时,圆边缘特征的姿态角误差小于0.5°,圆心的计算误差小于1.0mm,实验结果表明该方法可准确计算位姿,结果可靠有效,在大目标近距离位姿测量时具有明显实用性。 相似文献
7.
为解决单目视觉位姿测量时,由目标特征点较多导致图像点与目标点拓扑关系未知的问题,提出了一种多特征点拓扑确定位姿测量算法。较多特征点可在目标进行大角度运动时保证足够的特征点进行位姿解算,与较少特征点相比提高测量精度。该算法将拓扑确定的过程和位姿求解的迭代过程进行嵌套,同时进行拓扑确定和位姿计算。位姿计算的迭代过程基于平行透视投影模型,不需要目标重心投影点坐标作为迭代初始值。拓扑确定的过程转化为分配问题的求解过程。每次位姿迭代的过程中进行一次拓扑确定,拓扑确定的结果可以计算更优的位姿估计。通过多位姿测量实验和精度对比实验结果证明:该算法适合大范围、高精度的位姿测量,在-120~120范围内,位姿测量均方根误差为0。272。 相似文献
8.
9.
10.
针对位姿求解过程中存在的解不唯一、选解难和解的精度不高等问题,提出一种基于点特征的单目视觉位姿测量算法。首先,根据共面4个特征点之间的位置关系,分别对平行和相交两种情况进行分析;其次,根据特征点的空间坐标、图像坐标和空间位置关系,推导出世界坐标系中3个坐标轴上的向量变换到摄像机坐标系中的单位向量,进而求解出物体相对于摄像机的初始位姿;最后,用LM算法对初始位姿进行优化,得到最终位姿。实验结果表明:文中算法的合成误差为0.54 mm;现有的EPnP算法、两点一线算法和P3P算法的合成误差分别为1.28、1.52和4.26 mm;文中算法的合成误差分别减小了57.8%、64.4%和87.3%,优于现有的EPnP算法、两点一线算法和P3P算法。 相似文献
11.
工业机器人末端位姿测量对机器人装配和机器人标定等工作具有重要价值。针对机器人位姿测量中常用标靶受环境光干扰较大、机器人运动空间有限等缺点设计了一款亮度可调、响应迅速的六面体立体标靶,并提出一种基于单目视觉的立体标靶标定方法。通过初始图像对的选择,解决单目视觉中本质矩阵分解得到的平移向量不精确的问题,并采用光束平差法对初始图像场景进行优化;向场景中添加新图像并使用光束平差法对场景进行全局优化,提高特征点重建精度;以精度为5m的平面标定板上的特征点作为真实点,解决单目视觉重建场景缺乏尺度因子的问题。实验表明:特征点三维重建的平均误差小于0.035 mm,能够有效进行立体标靶的标定;使用该标靶计算的机器人位姿信息,将机器的位置精度提高了37%。 相似文献
12.
针对人工测量轮胎花纹磨损度效率低、精度差的问题,设计了一套基于线结构光的轮胎花纹深度测量系统.介绍了利用线结构光测量轮胎花纹深度的原理和系统结构,完成了摄像机内外参数、光平面和移动位姿标定.通过工业摄像机对光条图像进行采集,并采用灰度重心法提取光条中心,运用Halcon软件对光条图像进行三维重建,获得胎面的三维点云数据... 相似文献
13.
相对位姿估计是机器人视觉领域的研究热点。通过两帧数据来估计相机的六自由度位姿变换。充分挖掘TOF相机优势, 提出了多个有效算法, 用以保证估计精度。采用迭代最近点(ICP)算法估计位姿变换, 为了克服ICP算法迭代发散问题, 利用尺度不变特征点对估计初始值。为了提取有效特征点, 根据统计学原理尺度化灰度图像, 提高图像对比度。为了提高相机的测量精度, 根据曝光时间越长, 测量精度越高的原理, 提出了融合多帧数据算法, 使得融合后的数据帧中每个像素值均是在最长合理曝光时间下采集得到。同时提出了度量两个六自由度位姿变换差异的算法, 并首次利用其跟踪ICP迭代过程。实验证明提出的算法可以有效估计相机六自由度位姿变换。 相似文献
14.
针对在飞行目标位姿估计中背景复杂、目标提取及位姿解算精度低、速度实时性差等问题,提出了一种激光与图像信息融合的飞行目标位姿估计方法。首先,建立彩色相机和激光雷达间的坐标变换模型实现两传感器像素级匹配,对同一时刻的图像和点云进行融合处理;其次,采用Vi Be算法与深度信息融合对图像中运动目标进行提取,并根据图像目标的位置框选出对应的点云;最后,利用PnP算法进行特征点粗配准,获取点云间初始旋转平移矩阵,并采用迭代最近点算法进行精配准,利用IK-D Tree加速临近点搜索,提高配准速度。使用仿真试验和半实物仿真试验对方法准确性和稳定性进行了验证,结果显示:二维图像目标检测算法正确率为97%,错误分类比为0.011 2%;位姿估计算法与传统迭代最近点算法相比精度提高了53.2%,单次耗时从261 ms降低至132 ms,效率提升约49.4%,与其他算法相比也具有一定优势。为飞行目标落点精准预测和制导控制提供解决思路。 相似文献
15.
基于单目视觉的焊接螺柱位姿参数测量技术研究 总被引:1,自引:1,他引:0
焊接螺柱在汽车制造领域有着广泛的应用,其焊 接 后的位姿(位置和姿态)是否符合设计要求决定着 后续部件的装配效率及整车质量。为了实现在线测量焊接螺柱的位姿参数,研究了一种 基于单目视觉 的焊接螺柱位姿测量方法,首先通过摄像机获取焊接螺柱图像,然后通过边缘检测、特征提 取等技术提取 焊接螺柱特征信息,最后通过计算模型实现焊接螺柱的位置偏移量及倾斜角度偏移量的测量 。通过实验对 测量模型与方法进行了验证,结果验证了方法的准确性和有效性,位置精度和角度精 度分别为± 0.15mm和±15′,可以很好地满足汽车等制造工业领域在线、柔性、快速和高精度的焊接螺柱位姿参数的测量需要。 相似文献
16.
17.
《中国激光》2016,(5)
为了更加实时、精确地实现小型无人机视觉导航,利用矩形的几何特性以及空间点、线的共面特征,提出了一种基于单目视觉的位姿分步估计方法。该方法在任意位置对空间矩形进行拍摄,通过获取的一对正交消隐点,确立无穷远点在像平面的投影关系,完成姿态估计;利用光心、空间矩形以及其投影的共面性特征建立约束方程,求解空间矩形在摄像机坐标系下的法向量,结合欧氏空间线性变换的不变性,实现摄像机坐标系中矩形4顶点坐标的线性求解,并根据空间点在世界坐标系与摄像机坐标系间的转换关系,完成位置估计。为了抑制图像噪声对位姿估计的影响,建立基于空间点、线共面特征的指标函数,利用NM寻优算法实现对位姿参数的非线性优化。实验结果表明,该算法具有计算精度高、实时性强、适用范围广的优点,设计的优化算法能够有效地抑制图像噪声,提高了位姿估计的稳健性。 相似文献
18.
19.
针对双屏视觉标靶前、后感光成像屏位姿关系难以标定的问题,提出一种基于坐标点云的感光成像屏位姿标定方法。该方法分别将前、后感光成像屏划分为n行n列的网格阵列,通过全站仪测量感光成像屏上每个网格角点的空间三维坐标,并利用工业相机实时获取感光成像屏上每个网格角点的图像二维坐标,结合图像二维坐标和空间三维坐标获得2D-3D映射关系,从而得到坐标点云数据。根据三公共点坐标系转换算法将坐标点云数据中的三维坐标统一到标靶坐标系下,进而确定相机与前、后感光成像屏的位姿关系,再通过网格索引方法对前、后感光成像屏的位姿关系进行求解。为评价标靶位姿测量精度,设计了静态测量重复性精度评定实验和绝对测量精度评定实验。实验结果表明:该标定方法的坐标静态测量重复性精度为0.13 mm、绝对测量精度为0.93 mm;方位角静态测量重复性精度优于0.01°、绝对测量精度优于0.05°。因此,该标定方法可以实现两个空间平面位姿关系的精确标定,且具有操作简便、精度高等特点,可用于双屏视觉标靶的标定。 相似文献