首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 125 毫秒
1.
介绍了显微立体视觉系统中微观物体表面的三维重构技术,详细论述了显微立体视觉系统的组成,以及从图像获取、显微图像处理、特征提取、立体匹配、摄像机标定、深度确定到最终曲面插值的三维表面重建过程.着重讨论了基于显微图像的特征提取和立体匹配方法,另外在系统论述基于显微立体视觉系统的微观物体表面三维重构的一般方法和步骤的基础上,针对现有方法的不足,指出了改进的方向.  相似文献   

2.
为了满足月球车视觉系统检测障碍物的时效性和可靠性需求,提出了一种基于平面约束和自适应惩罚参数的半全局立体匹配算法。首先,对极线校正后的两幅图像进行SIFT特征点提取与匹配,同时提取边缘特征;然后,利用匹配的SIFT特征点拟合空间平面,并根据平面估计左右图像所有像素点的视差搜索范围;最后,基于传统的半全局匹配算法,采用自适应惩罚参数对左右图像进行立体匹配。实验结果表明:所提出的算法有效地降低了计算复杂度,其计算复杂度只有传统方法的19.9%,对于视差不连续区域以及遮挡区域都能够获得正确的匹配结果。较传统半全局匹配方法无论在速度还是匹配精度上都得到明显提高,为立体匹配的实际应用奠定了基础。  相似文献   

3.
为了满足月球车视觉系统对检测障碍物检测的时效性和可靠性的需求,提出了一种基于平面约束和自适应惩罚参数的半全局立体匹配算法。首先,对极线校正后的两幅图像进行SIFT特征点提取与匹配,同时提取边缘特征;然后,利用匹配的SIFT特征点拟合空间平面,并根据平面估计左右图像所有像素点的视差搜索范围;最后,基于传统的半全局匹配算法,采用自适应惩罚参数的策略对左右图像进行立体匹配。实验结果表明:所提出的算法有效地降低了计算复杂度,其计算复杂度只有传统方法的19.9%,对于视差不连续区域以及遮挡区域都能够获得正确的匹配结果。较传统半全局匹配方法无论在速度还是匹配精度上都得到明显提高,为对立体匹配的实际应用奠定了基础。  相似文献   

4.
挖掘机器人双目视觉系统标定方法与立体匹配   总被引:1,自引:0,他引:1  
在挖掘机器人视觉系统实现中,摄像机标定、特征提取、立体匹配是关键环节,而立体匹配又是视觉系统中最复杂、最重要的步骤。首先分析了通用双目立体视觉模型及平行双目立体视觉模型,对挖掘机器人平行双目立体视觉系统测量方法及参数标定进行了研究。结合基于特征的匹配方法,通过对左、右图像角点的提取,实现了基于极线几何约束的特征点匹配。通过对铲斗图像匹配实验,验证了该方法能满足挖掘机器人视觉系统要求。  相似文献   

5.
三目立体视觉系统能够克服双目立体视觉系统存在的遮挡等问题,进一步提高立体视觉系统测量精度。 然而增加传感 器数量会导致匹配算法计算量增大,影响系统实时性,从而限制三目立体视觉系统在各领域的实际应用。 为此,本文提出一种 三目半全局立体匹配算法及其硬件计算框架。 首先,在对三目立体视觉系统基本模型深入分析的基础上,提出一种硬件友好的 半全局匹配算法。 随后,根据 FPGA 硬件并行化计算和流水线处理的特点,对片上系统整体框架及各计算模块结构进行设计。 最后,基于 Zynq-7000 SoC FPGA 搭建一套完整硬件实验系统进行算法实现,分别使用数据集图像和真实场景图像对本文算法 进行评估。 实验结果表明,本文算法与传统双目半全局匹配算法相比,有效像素填充率提高 17. 31% ,错误率降低 13. 06% ,在真 实场景下可实现 60 fps 实时立体匹配,能够满足各类应用场景的实际需求。  相似文献   

6.
基于脉冲耦合神经网络和Markov随机场的立体匹配研究   总被引:1,自引:0,他引:1  
立体匹配是寻找立体图像对中对应点的问题,是立体视觉的核心问题。现有立体匹配算法通常是就立体匹配问题建立适当的数学模型并进行求解,在匹配速度和匹配精度之间存在矛盾。以生物视觉研究为背景,提出一种基于脉冲耦合神经网络(PCNN)的立体匹配方法。该方法以Markov随机场(MRF)上的贝叶斯模型为基础,并利用PCNN建立其似然概率模型。将左右2幅图像分别输入到2个PCNN网络,通过迭代生成点火时间序列。引入点火时间序列的平均点火时间差的概念,利用2个像素对应神经元的平均点火时间差来评价2个像素的相似性,并以此为基础确定似然概率。最后利用信任传递(BP)算法求解Markov随机场模型的最大后验概率问题。利用广泛使用的立体视觉测试图像对算法进行了实验。实验结果表明该算法能够有效实现立体匹配,匹配效果较好。  相似文献   

7.
立体匹配是立体视觉中最为关键的一步,对立体视觉具有举足轻重的作用.为了能快速地进行立体匹配,该文结合极线约束和同一点相位相同特性,提出了一种新的基于相位的立体匹配算法.该方法首先根据极线约束确定对应点所在极线,再根据四步相移法得到图像的包裹相位,然后根据合成频率的相位展开方法提取相位,最后在该极线上找到相位相同的对应点.实验证明,与传统的极线最小距离方法相比,大大提高了匹配速度.实验结果验证了算法的有效性.  相似文献   

8.
针对PMP视觉测量中物体深度变化大或表面形状复杂时出现的误匹配问题,提出一种基于区域分割和视差修正的立体匹配方法。研究了四步相移法和多频外差相移的基本原理,并采用基于OpenCV的标定立体校正方法对光栅图像进行了校正;结合PMP视觉测量系统的特点对相机视场进行分析,根据视场各区域的相位信息特点以及视差约束,提出基于混合阈值的区域分割原则和实现方法;应用视差求解和视差校正获得有效的视差图,并在自主研发的PMP视觉测量系统中验证了立体匹配方法的有效性。  相似文献   

9.
基于线性生长的区域立体匹配算法研究   总被引:2,自引:1,他引:1  
图像的区域立体匹配是立体视觉中的重点研究课题之一,实时可靠应用的关键在于视差图的可靠性和计算复杂度.提出了一种基于线性生长的区域立体匹配算法,实现从立体图像对中提取深度信息,获得更可靠视差图的方法.该算法包括根点选择和区域生长2个部分,获得视差图的计算时间短,利用滤波可以提高视差图的可靠度.最后对此算法生成的结果进行了比较分析.  相似文献   

10.
在3D视觉技术中,双目视觉技术作为低成本高效率的代表受到了广泛的关注,在工业领域中具有优越的应用前景。通过归纳整理相关文献,对双目视觉关键技术进行了概述,分别阐述了相机的标定方法和基于图像特征的立体匹配方法,对这两个关键技术当前的研究现状和优缺点进行了分析,并进行总结与展望。  相似文献   

11.
主动立体双目视觉平台的设计与实现   总被引:3,自引:0,他引:3  
提出了一种高精度立体双目视觉平台的设计方法。文章给出了立体视觉平台的设计原理,详细讨论了立体视觉平台中控制电机的选取和基线选择问题,并给出了实际解决方案。文章最后给出立体视觉系统常用的摄像机定标和立体视觉匹配方案。  相似文献   

12.
基于双目视觉原理进行目标定位可以得到目标的深度信息。本文对双目视觉关键技术中的摄像机标定和立体匹配进行深入研究,采用改进的平面标定法和基于外极线约束和灰度相关性的立体匹配算法。搭建双目视觉系统实验平台,编制目标定位程序。实验结果验证本文方法的准确性。  相似文献   

13.
跨座式单轨交通接触网磨损检测中,传统的人工巡检方式存在效率低下、安全性差等问题。研究了线阵立体视觉在接触网磨损检测中的应用。立体匹配是立体视觉中的重点与难点。在线阵立体匹配过程中。首先,分别提取对应的左右图像的加速分割检测特征点(FAST); 其次,对特征点生成加速鲁棒性特征(SURF)的特征向量; 最后,利用双向快速近似最近邻搜索算法得到初始匹配点集,并使用随机采样一致性确定最终匹配点集。由匹配点集生成稠密、准确的视差图,进而获得接触网的实际残高。实验结果表明,该方法能快速、准确的检测出接触网的磨损情况  相似文献   

14.
基于多频外差原理的三维测量技术   总被引:1,自引:0,他引:1  
提出了一种基于外差原理的三维测量技术,该技术由相位移法、外差原理和双目立体视觉3部分组成。相位移法和外差原理相结合能够自动完成相位展开,同时保持相移法原有的相位求解精度;然后根据相位展开后的相位图,使用双目立体视觉原理自动完成左、右对应点的立体匹配和被测物体的点云重构。利用基于多频外差原理的三维测量技术建立了一套三维测量系统,该系统由2个CCD摄像机和1个DLP投影仪组成。利用上述系统对人脸模型进行测量试验,测量结果表明该系统能够完成复杂自由曲面的测量,测量数据完整可靠。  相似文献   

15.
针对水下双目立体视觉成像稠密立体匹配因不满足空气中极线约束问题,提出一种水下对应点匹配与三维测量方法,可将水下双目相机采集的立体图像校正为符合共面行对齐原则的图像对,再套用空气中成熟的立体匹配方法得到水下左右相机图像视差图,从而实现水下目标的三维重建。首先,将进入相机的所有光线总和看成光场,采用四维光场参数表达对每一条光线建模,据此建立相机的折射成像模型和双目立体视觉模型并计算光线的方向向量;根据光线的光场表达将光线转化为点矢量的形式,计算方向图像上任意像点对应原图像的像素坐标并确定位置映射关系。通过插值即可快速得到符合行对齐原则的左、右方向图像,并最终获得每条光线对应的视差图。仿真结果表明,方向图像的行对齐误差小于0.8 pixel。水池实验采用事先标定的靶球作为目标物,利用随机散点主动投射以增加目标物表面的纹理信息,对靶球多次测量的均方根误差为2.8 mm,具有较高的测量精度。  相似文献   

16.
用于弱纹理场景三维重建的机器人视觉系统   总被引:1,自引:0,他引:1  
为了实现机器人在弱纹理场景中的避障和自主导航,构建了由双目相机和激光投点器构成的主动式双目视觉系统。对立体视觉密集匹配问题进行了研究:采用激光投点器投射出唯一性和抗噪性较好的光斑图案,以增加场景的纹理信息;然后,基于积分灰度方差(IGSV)和积分梯度方差(IGV)提出了自适应窗口立体匹配算法。该算法首先计算左相机的积分图像,根据积分方差的大小确定匹配窗口内的图像纹理质量,然后对超过预设方差的阈值与右相机进行相关计算,最后通过遍历整幅图像得到密集的视差图。实验结果表明:该视觉系统能够准确地恢复出机器人周围致密的3D场景,3D重建精度达到0.16mm,满足机器人避障和自主导航所需的精度。与传统的算法相比,该匹配方法的图像方差计算量不会随着窗口尺寸的增大而增加,从而将密集匹配的运算时间缩短了至少93%。  相似文献   

17.
基于视觉的采摘机器人目标识别与定位方法研究综述   总被引:10,自引:0,他引:10       下载免费PDF全文
目标识别和定位的精度直接关系到采摘机器人采摘效率、质量和速度。本文对近年来采摘机器人的目标识别和三维定位的研究工作进行了系统性的总结和分析,综述了果蔬识别和定位的几种主要方法:目标识别:数字图像处理技术、基于机器学习的图像分割与分类器和基于深度学习的算法;三维定位:基于单目彩色相机、基于立体视觉匹配、基于深度相机、基于激光测距仪和基于光基3D相机飞行时间的三维定位。分析了影响果蔬识别和定位精度的主要因素:光照变化、复杂的自然环境、遮挡以及动态环境干扰下成像不精确。最后对采摘机器人目标识别与定位的未来发展作了几点展望。  相似文献   

18.
本文提出采用立体视觉检测Stewart平台动态位姿,并着重研究其中的图像处理部分。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号