首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
基于角点特征的立体视觉车辆环境感知系统研究   总被引:1,自引:1,他引:1  
通过对立体视觉系统进行测距试验发现,标定误差将会导致远距离测距精度的下降,并使立体图像对不再严格的满足极线约束,这说明对于车辆环境感知这类大探测范围的应用不能直接使用传统的立体视觉算法.针对这些问题,设计出基于角点的立体视觉系统进行车辆环境感知.通过二次标定减小相机标定误差对测距精度的影响,使系统能够在有效探测范围内进行准确测距.使用弱化的极线约束对图像中检测到的角点进行立体视觉处理,提高匹配成功率.根据车道线检测结果在线标定相机俯仰角,消除行驶过程中相机俯仰角变化对远距离物体检测造成的影响.为实现大基线立体视觉系统在进行大范围障碍物检测时的实时性处理,根据车速动态调整检测范围以降低立体视觉处理的运算量.试验结果表明,该系统能够对车前3~80 m的障碍物进行实时可靠准确的检测和测距.  相似文献   

2.
以某无人车平台为对象,开展双目立体视觉技术研究。通过采用双目立体视觉涉及传感器CCD摄像头与一线激光雷达、四线激光雷达及毫米波雷达等多传感器联合标定的方法提高立体视觉的测量精度。通过比较多种匹配算法优劣性,选择其中的自适应权重立体匹配算法作为本平台实现算法,编写算法测试程序,生成视差图,并通过与SSDA算法对比实验验证算法优越性。  相似文献   

3.
介绍了双目立体视觉三角测距原理和视觉测量系统,双目摄像机拍摄彩色图像,提取颜色、轮廓、纹理等识别特征用于目标区域识别。采用区域匹配算法获得视差图,根据视差计算目标区域的三维坐标信息。完成了目标测量实验并对实验结果进行分析。  相似文献   

4.
针对移动机器人立体视觉障碍检测的两个难点:匹配精度以及匹配算法的实时性问题,提出了一种基于图像分割和立体视觉相结合的障碍物检测方法.通过分割提取出了障碍物的大致形体并滤去地面上的冗余信息,这样就把立体视觉避障中匹配区域缩小到有用的障碍物区域中,提高了匹配速度和精度.同时,采用德州仪器的DSP-TMSDM642实现了该算法在移动机器人上的嵌入式实现.实验结果表明了该方法能够在室内环境下较好地分割出障碍物目标大致区域,计算出障碍物特征点的三维信息精度高,具有较强的自适应性.  相似文献   

5.
基于双目视觉的工件尺寸在机三维测量   总被引:3,自引:2,他引:3  
由于传统测量方法及仪器设备无法满足在机实时检测工件三维尺寸的要求,本文基于双目立体视觉视差原理,搭建了一套可在车间现场操作的在机测量工件三维尺寸的视觉系统.首先,介绍了改进的基于平面圆靶标的双目视觉测量系统标定方法.然后,用阈值分割算法从背景中识别出待测工件,采用Canny算子和多边形逼近法提取工件轮廓和轮廓关键特征点,并在极线约束的特征点匹配算法基础上,提出一种基于灰度相关的密集型精匹配算法,获得了工件边缘轮廓关键特征点云的三维坐标数据.最后,对匹配所得特征点云进行数据处理和特征拟合计算,得到了工件的关键尺寸.在车间数控机床上对有斜面及孔结构的工件进行了在机测量实验,结果显示,该系统检测精度达±1.3%以上.  相似文献   

6.
提出一种立体视觉中应用极几何结合仿射变换来解决图像匹配问题的方法。首先利用两幅图像间的极几何关系,确定一些可靠匹配点作为控制点;进而构建全局仿射变换,把像面的特征点投影到另一幅像面上。再利用极几何约束和变换后的图像点位置关系,进一步搜索匹配点。最后是重匹配,分区域对控制点进行优化更新,经过迭代运算,得到最终结果。实验表明,这种算法能较快地收敛,有效地剔除误匹配点和提高匹配精度。  相似文献   

7.
为了提高立体视觉结构光三维重建系统的精度,提出了一种面向立体视觉结构光三维重建系统的点云误差补偿方法,该方法分为误差标定、误差建模和误差补偿三部分。首先,提出一种新的误差标定方法,将立体视觉结构光系统的测量空间划分为离散的特征点并标定了整个空间内特征点的误差;然后,提出了基于神经网络的误差建模方法,建立起该空间的误差模型;最后,提出了适用于立体视觉结构光系统的点云误差补偿方法,将建立的误差模型用于误差补偿。实验表明文章提出的误差补偿方法平均减少了51.96%的直径误差和14.16%的球心距误差,精度提升效果明显。从而,验证了该算法的有效性和可行性。  相似文献   

8.
挖掘机器人双目视觉系统标定方法与立体匹配   总被引:1,自引:0,他引:1  
在挖掘机器人视觉系统实现中,摄像机标定、特征提取、立体匹配是关键环节,而立体匹配又是视觉系统中最复杂、最重要的步骤。首先分析了通用双目立体视觉模型及平行双目立体视觉模型,对挖掘机器人平行双目立体视觉系统测量方法及参数标定进行了研究。结合基于特征的匹配方法,通过对左、右图像角点的提取,实现了基于极线几何约束的特征点匹配。通过对铲斗图像匹配实验,验证了该方法能满足挖掘机器人视觉系统要求。  相似文献   

9.
三目立体视觉系统能够克服双目立体视觉系统存在的遮挡等问题,进一步提高立体视觉系统测量精度。 然而增加传感 器数量会导致匹配算法计算量增大,影响系统实时性,从而限制三目立体视觉系统在各领域的实际应用。 为此,本文提出一种 三目半全局立体匹配算法及其硬件计算框架。 首先,在对三目立体视觉系统基本模型深入分析的基础上,提出一种硬件友好的 半全局匹配算法。 随后,根据 FPGA 硬件并行化计算和流水线处理的特点,对片上系统整体框架及各计算模块结构进行设计。 最后,基于 Zynq-7000 SoC FPGA 搭建一套完整硬件实验系统进行算法实现,分别使用数据集图像和真实场景图像对本文算法 进行评估。 实验结果表明,本文算法与传统双目半全局匹配算法相比,有效像素填充率提高 17. 31% ,错误率降低 13. 06% ,在真 实场景下可实现 60 fps 实时立体匹配,能够满足各类应用场景的实际需求。  相似文献   

10.
提出了一种基于机器视觉的小尺寸不规则零件精密测量方法和系统,方法包括图像采集、图像增强、图像配准、边缘检测、目标直线提取、相机标定和计算测量环节。针对传统尺度不变特征变换(SIFT)匹配算法完全忽略特征点之间的几何关系,对于灰度变化较平滑的图像在寻找匹配特征点对时易产生较多误匹配的问题,引入轮廓匹配获取图像几何信息、对SIFT特征点匹配进行约束,并通过随机样本一致(RANSAC)算法去除噪声点对的影响、精确估计几何变换矩阵;针对现有Hough变换拟合直线算法对非线性边缘易在Hough空间形成伪峰、影响边缘检测精准度的问题,设计了Hough空间投票权重分配新策略来抑制伪峰的产生。实验结果表明:与传统方法相比,所提出的方法特征匹配精度提高了12%,直线检测精准度提高了22%,系统测量精度达到0.015 mm。  相似文献   

11.
基于 RANSAC 的视觉里程计优化方法研究   总被引:1,自引:0,他引:1       下载免费PDF全文
针对图像特征产生误匹配影响基础矩阵计算,导致同步定位与地图构建(SLAM)视觉里程计估计精度差的问题,提出一种基于随机抽样一致(RANSAC)的视觉里程计优化方法。该方法首先通过最小距离阈值法对初始匹配集粗滤除,再采用RANSAC计算图像间相对变换关系,若符合变换关系为内点,内点数最多的迭代结果为正确匹配结果;然后计算图像间单应变换并利用其计算基础矩阵,采用对极几何约束确定内点,得到具有最多内点的基础矩阵;最后采用TUM数据集从特征匹配与基础矩阵计算两方面进行优化算法效果验证。结果表明,该算法可提高运行效率且有效去除误匹配特征点,使匹配正确率提高7.7%,基础矩阵估计算法在提高基础矩阵计算精度的同时,内点率也提高了3%,算法为提高视觉里程计精度估计精度提供了理论基础。  相似文献   

12.
双目立体视觉测量模型与同名点匹配研究   总被引:5,自引:0,他引:5  
根据几何成像原理建立起双CCD立体视觉系统的数学模型,但是立体视觉测量中同名点的准确匹配始终是一个难题.利用基于区域匹配的方法,在使两CCD关于XZ平面绝对对称,即同名点在OXYZ坐标系下x值相同的前提下,提出了一种将二维面上平移范本转变为在一维线段上平移范本进行同名点识别的方法,解决了区域匹配方法计算量大的问题,提高了同名点匹配的速度和精度.  相似文献   

13.
为提高视觉同步定位与建图系统的定位、建图精度,克服传统算法中特征匹配搜索半径为固定值导致视觉里程计在高动态运动时特征误匹配率高的问题,本文提出一种搜索半径自适应的惯导辅助图像特征匹配方法。该方法首先对双目相机左右两帧图像进行特征提取与匹配,并获取地图点三维坐标,然后通过预积分惯性测量单元的量测值预测相机位姿,再根据误差传播定律计算预测位姿的协方差,最后利用预测位姿将地图点投影至图像得到对应像素坐标,从而根据像素坐标中误差确定地图点最有可能出现的区域半径。实验结果表明,该方法可有效缩小特征匹配的搜索半径,显著提高图像特征匹配的准确度,使跟踪线程位姿精度提高约38.09%,系统整体位姿精度提高约16.38%。该方法可为每个特征点提供自适应区域约束,提高特征点匹配的准确度,进而提升系统位姿估计精度,构建更高精度的稠密地图。  相似文献   

14.
针对机器人图像视觉视野不够开阔,不能获得全面障碍物信息的问题,提出了一种基于轮廓识别的三维重建与可变视觉三维拼接方法。对双目立体视觉系统拍摄的两幅图像中提取出的边缘点进行了边界跟踪,然后基于窗口灰度匹配法,对两幅图像上的像素点进行了匹配,来寻找双目立体视觉系统左右两幅图像中对应的像素点,重建出了障碍物的三维轮廓,并根据目标物体轮廓的连续性对三维轮廓进行了优化;在此基础上提出了基于双重配准算法的可变视角三维拼接方法,采用改进ICP算法对转换到同一坐标系下的两片三维点云进行了精确配准,并对拼接处进行了融合处理,从而得到了大视野的障碍物信息。研究结果表明:通过可变视角三维拼接方法重建的三维模型具有较高空间坐标精度,并且能够通过改变双目立体视角范围获取大视野图像,最大限度地满足机器人障碍物检测和路径规划的要求。  相似文献   

15.
运用旋转无关特征线实现景象匹配   总被引:1,自引:0,他引:1  
为了寻求一种高效可靠的景象匹配算法,使其在复杂背景下具有尺度无关,抗旋转、光照变化和图像轻微畸变的特性,对基于特征线的景象匹配算法进行了研究.受人眼视觉系统(HVS)的启发,利用类似人眼视觉皮层滤波器组的处理方式,提出一种新的基于特征线的景象匹配方法.该方法利用向量描述特征线来完成图像间的匹配,相比特征点的匹配算法具有特征数量少,信息丰富的特点.介绍了利用提出的方法进行特征线的提取、表征与匹配的过程,总结了该匹配方法的效果和特点.实验表明,这种基于特征线的景象匹配算法可以完成复杂背景下图像间的匹配,克服了旋转和尺度缩放,并具有很好的鲁棒性,匹配精度优于1 pixel,满足了自动景象匹配的稳定可靠、精度高、抗干扰能力强等要求.  相似文献   

16.
针对视觉中的目标识别问题,提出了一种基于SURF改进的模板匹配方法实现目标识别.传统的目标识别算法通常采用基于模板匹配的算法,其中基于SURF特征点的匹配算法被广泛使用,然而其实时性与匹配精度仍有待提高.基于SURF特征点进行改进,利用DAISY算法生成的描述子替代SURF算法中的描述子,并采用PROSAC算法进行误匹配删除,提高了模板匹配算法精度与实时性,最后经过实验验证了所用方法的有效性.  相似文献   

17.
实时指纹识别系统的特征点匹配算法   总被引:1,自引:0,他引:1  
近年来,文献中报道了许多指纹匹配算法.这里提出了一种新的指纹特征点匹配算法,这种算法识别速度更快,精度较高,适用于实时指纹识别系统.利用指纹的中心点来确定匹配参考点,并采用圆形匹配限制框进行匹配,提高了匹配速度和精度.对一组由扫描仪获取的指纹图像做实验,结果表明,该算法比以往算法速度更快,精度更高.  相似文献   

18.
为了解决曲线磨削中工件轮廓加工精度的在位评定问题,提出了一种基于机器视觉的工件轮廓曲线磨削加工精度原位测量和评定方法。应用这一方法,通过视觉测量系统和亚像素边缘提取算法,得到工件的实际轮廓边缘点。通过轮廓匹配算法来确认工件实际轮廓与理论轮廓的最优匹配位置,进而计算轮廓偏差,进行加工精度评定。分别进行了标定板试验和工件试验,表明所提出的评定方法精度可达0.6像素,能有效保证工件轮廓在位检测的精度和效率。  相似文献   

19.
近年来,文献中报道了许多指纹匹配算法,它们各有不同的特点.提出一种新的指纹特征点匹配算法,通过指纹特征点匹配来实现指纹图像的匹配.这种算法通过采用圆形匹配限制框和简化计算步骤等方法,优化了Anil Jain和Xiping Luo等人的算法.对一组由扫描仪获取的指纹图像做实验,结果表明,该算法速度更快,精度更高,更适用于实时指纹识别系统.  相似文献   

20.
用于弱纹理场景三维重建的机器人视觉系统   总被引:1,自引:0,他引:1  
为了实现机器人在弱纹理场景中的避障和自主导航,构建了由双目相机和激光投点器构成的主动式双目视觉系统。对立体视觉密集匹配问题进行了研究:采用激光投点器投射出唯一性和抗噪性较好的光斑图案,以增加场景的纹理信息;然后,基于积分灰度方差(IGSV)和积分梯度方差(IGV)提出了自适应窗口立体匹配算法。该算法首先计算左相机的积分图像,根据积分方差的大小确定匹配窗口内的图像纹理质量,然后对超过预设方差的阈值与右相机进行相关计算,最后通过遍历整幅图像得到密集的视差图。实验结果表明:该视觉系统能够准确地恢复出机器人周围致密的3D场景,3D重建精度达到0.16mm,满足机器人避障和自主导航所需的精度。与传统的算法相比,该匹配方法的图像方差计算量不会随着窗口尺寸的增大而增加,从而将密集匹配的运算时间缩短了至少93%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号