首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 187 毫秒
1.
基于色彩分割和自适应窗口的快速立体匹配   总被引:3,自引:1,他引:2  
针对现有立体匹配算法难以兼顾匹配精度和速度的不足,提出了一种基于联合匹配代价的局部方法.首先,根据视差在同一色彩分割区域内平滑变化的假设,提出了一种利用参考图像和目标图像的色彩分割信息获得的基于任意形状和大小支持区域的匹配代价;然后在RGB色彩空间中,通过由窗口内的平均匹配误差、误差方差及较大窗口的偏向误差构成的窗口选择评价函数,获得基于自适应矩形窗口的匹配代价;最后,将这两种匹配代价进行有机的结合构成联合匹配代价,并通过局部优化方法获得稠密视差图.采用Middlebury dataset进行的实验结果表明,本文算法不仅可以提高视差不连续区域和低纹理区域的匹配精度,而且获得的视差与当前主流算法具有可比性.此外,所提算法的处理时间较之当前优秀的局部方法提高了约19~35倍.  相似文献   

2.
针对传统的 Census 区域匹配算法过分依赖窗口中心像素信息,导致算法受到噪声干扰时匹配精度降低的问题,提出一种基于改进 Census 变换的匹配算法.采用局部像素反差值为中心像素选择的评判标准,对传统的 Census 变换进行改进,增强了窗口像素信息的利用,提高了算法对像素值突变的适应性,使算法有更好的鲁棒性;代价聚合阶段采用引导图滤波算法并结合多尺度聚合模型,增强平坦区域像素间的区分度;采用 win-take-all 算法选取最优视差值,完成视差计算;采用区域投票策略和中值滤波算法完成视差精化.利用该改进算法对 Middlebury 平台提供的标准图像进行实验,实验结果表明该算法较传统Census 算法有较好的抗噪能力和立体匹配精度.  相似文献   

3.
提出了一种改进的快速立体匹配算法。对于双目视觉系统采集的2幅图像,首先采用区域匹配算法进行初始快速立体匹配,再采用左右一致性检验剔除误匹配点,得到立体匹配的初始视差图。然后将初始视差作为图割法构图的限制条件,对初始视差图进行二值分割。最后对分割获得的前景区域和背景区域施加不同的限制,并通过修正能量函数,使构图网络大大减小,从而进一步提高了匹配速度。试验结果表明,该算法既提高了立体匹配速度,又保证了匹配精度。  相似文献   

4.
一种基于自适应窗口和图切割的快速立体匹配算法   总被引:5,自引:2,他引:3  
针对基于图切割的立体匹配算法计算量大的缺点,提出了一种新的快速立体匹配算法。首先根据图像边缘特征自适应变化窗口,并采用灰度差平方和匹配(SSD)作为相似判定准则计算初始视差图,再通过左右一致性校验去除误匹配点,在构造能量函数时,将初始视差作为能量函数的一个参考项,最后采用图切割(graph cuts)算法求取使全局能量最小的视差最优分配。通过标准图像对测试了提出的方法,并与其他方法进行了比较,实验结果表明,该算法不仅能够保留基于图切割的立体匹配算法对大的低纹理区域和遮挡像素较好处理的优点,而且匹配时间短,运行时间比原有算法约缩短了三分之二,能够满足工程实用性的要求。  相似文献   

5.
动态规划算法是立体匹配中比较流行的一种全局优化方法,然而传统的动态规划立体匹配算法因忽略了核线间像素对视差的影响,产生了比较明显的横向"条纹"效应.为了消除此效应,本文提出了一种采用多级动态规划的立体匹配算法.该算法通过建立初始视差空间,对核线间进行双向的动态规划运算,然后将合并得到的结果用于优化初始视差空间.基于新的视差空间在核线上进行双向的动态规划运算,最后求取使核线上和核线间动态规划合并结果最小的值作为所求视差.利用标准数据库Middlebury平台对提出的算法进行了测试.实验结果表明,该算法与传统的动态规划算法和基于扫描线优化算法相比,横向"条纹"效应有所改善,且总体误匹配率分别降低了28.60%和40.42%,提高了匹配结果的准确性.  相似文献   

6.
基于行列双向约束的动态规划立体匹配算法   总被引:1,自引:1,他引:0  
为了克服传统的动态规划立体匹配算法会产生明显条纹状瑕疵的缺陷,提出一种同时考虑行列双向约束的动态规划立体匹配算法。该算法首先利用扫描线信息中所包含的视差不连续性和遮挡现象构造出一种新的全局能量代价函数;然后进一步设计了基于此能量代价函数的全局优化策略,在保证扫描线行方向上视差平滑性的基础上,解决了扫描线列方向上的视差不连续性问题;最后通过动态规划寻找最优路径来获得匹配点和遮挡点的视差,从而得到稠密视差图。实验结果表明,所提出的算法不但能够有效消除视差图中的条纹状瑕疵,而且在匹配精度上能够取得较好的效果。  相似文献   

7.
针对传统立体匹配算法准确率低且在弱纹理区域存在误匹配的问题,提出融合多尺度信息的各向异性立体匹配算法(ASMSI)。首先构造各向异性的匹配代价计算函数,将梯度和相角信息引入代价计算过程中用于剔除弱纹理区域的离群点;随后采用融合多尺度信息十字交叉代价聚合计算每个支持域内的匹配代价;进一步经赢家通吃策略生成初始视差图;在此基础上进行左右一致性检测及后处理得到精修后的视差图;最后通过仿真实验对比图像中非遮挡、深度不连续区域的误匹配率和运行时间来评价算法模型。实验结果表明:所提算法能有效解决弱纹理区域的误匹配问题,使匹配准确率提高了5.02%,能够满足立体匹配过程中高效率、高精度的要求。  相似文献   

8.
为了满足月球车视觉系统检测障碍物的时效性和可靠性需求,提出了一种基于平面约束和自适应惩罚参数的半全局立体匹配算法。首先,对极线校正后的两幅图像进行SIFT特征点提取与匹配,同时提取边缘特征;然后,利用匹配的SIFT特征点拟合空间平面,并根据平面估计左右图像所有像素点的视差搜索范围;最后,基于传统的半全局匹配算法,采用自适应惩罚参数对左右图像进行立体匹配。实验结果表明:所提出的算法有效地降低了计算复杂度,其计算复杂度只有传统方法的19.9%,对于视差不连续区域以及遮挡区域都能够获得正确的匹配结果。较传统半全局匹配方法无论在速度还是匹配精度上都得到明显提高,为立体匹配的实际应用奠定了基础。  相似文献   

9.
为了满足月球车视觉系统对检测障碍物检测的时效性和可靠性的需求,提出了一种基于平面约束和自适应惩罚参数的半全局立体匹配算法。首先,对极线校正后的两幅图像进行SIFT特征点提取与匹配,同时提取边缘特征;然后,利用匹配的SIFT特征点拟合空间平面,并根据平面估计左右图像所有像素点的视差搜索范围;最后,基于传统的半全局匹配算法,采用自适应惩罚参数的策略对左右图像进行立体匹配。实验结果表明:所提出的算法有效地降低了计算复杂度,其计算复杂度只有传统方法的19.9%,对于视差不连续区域以及遮挡区域都能够获得正确的匹配结果。较传统半全局匹配方法无论在速度还是匹配精度上都得到明显提高,为对立体匹配的实际应用奠定了基础。  相似文献   

10.
基于线性生长的区域立体匹配算法研究   总被引:2,自引:1,他引:1  
图像的区域立体匹配是立体视觉中的重点研究课题之一,实时可靠应用的关键在于视差图的可靠性和计算复杂度.提出了一种基于线性生长的区域立体匹配算法,实现从立体图像对中提取深度信息,获得更可靠视差图的方法.该算法包括根点选择和区域生长2个部分,获得视差图的计算时间短,利用滤波可以提高视差图的可靠度.最后对此算法生成的结果进行了比较分析.  相似文献   

11.
A new improvement is proposed for stereo matching which gives a solution to disparity map in terms of edge energy.We decompose the stereo matching into three parts:sparse disparity estimation for image-pairs,edge energy model and final disparity refinement.A three-step procedure is proposed to solve them sequentially.At the first step,we perform an initial disparity model using the ordering constraint and interpolation to obtain a more efficient sparse disparity space.At the second step,we apply the energy function by the edge constraints that exist in both images.The last step is a kind of disparity filling.We determine disparity values in target regions based on global optimization.The proposed three-step simple stereo matching procedure yields excellent quantitative and qualitative results with Middlebury data sets in a fast way.  相似文献   

12.
用于弱纹理场景三维重建的机器人视觉系统   总被引:1,自引:0,他引:1  
为了实现机器人在弱纹理场景中的避障和自主导航,构建了由双目相机和激光投点器构成的主动式双目视觉系统。对立体视觉密集匹配问题进行了研究:采用激光投点器投射出唯一性和抗噪性较好的光斑图案,以增加场景的纹理信息;然后,基于积分灰度方差(IGSV)和积分梯度方差(IGV)提出了自适应窗口立体匹配算法。该算法首先计算左相机的积分图像,根据积分方差的大小确定匹配窗口内的图像纹理质量,然后对超过预设方差的阈值与右相机进行相关计算,最后通过遍历整幅图像得到密集的视差图。实验结果表明:该视觉系统能够准确地恢复出机器人周围致密的3D场景,3D重建精度达到0.16mm,满足机器人避障和自主导航所需的精度。与传统的算法相比,该匹配方法的图像方差计算量不会随着窗口尺寸的增大而增加,从而将密集匹配的运算时间缩短了至少93%。  相似文献   

13.
为了实现彩色图像的快速立体匹配,获取准确和致密的视差图,在全局匹配基础上提出了基于区域增长的全局匹配算法,该算法将图像对按行进行区域增长匹配,匹配后的视差图再通过均值滤波器,可以滤除由于误匹配产生的不可靠视差。实验结果表明,在保证可靠性的前提下,采用改进后的匹配算法极大缩短了图像处理时间。  相似文献   

14.
动态规划是双目立体匹配的经典算法,针对控制点动态规划算法易产生横向条纹以及立体匹配普遍的边缘性和弱纹理区域问题,提出一种基于金字塔分层双向动态规划的改进立体匹配算法。该算法将分层模型加入传统动态规划方法,以低像素层级为高像素层级提供控制点集,并在匹配代价计算中采用一种自适应相关性测度函数,加以匹配代价滤波,提高算法精确度及实时性并获取高精度视差图。以Middlebury标准库中的图片以及实拍图片作为实验对象,实验表明所提出的方法具有较好的性能。  相似文献   

15.
The detection of free spaces between obstacles in a scene is a prerequisite for navigation of a mobile robot. Especially for stereo vision-based navigation, the problem of correspondence between two images is well known to be of crucial importance. This paper describes multi-range approach of area-based stereo matching for grid mapping and visual navigation in uncertain environment. Camera calibration parameters are optimized by evolutionary algorithm for successful stereo matching. To obtain reliable disparity information from both images, stereo images are to be decomposed into three pairs of images with different resolution based on measurement of disparities. The advantage of multi-range approach is that we can get more reliable disparity in each defined range because disparities from high resolution image are used for farther object a while disparities from low resolution images are used for close objects. The reliable disparity map is combined through post-processing for rejecting incorrect disparity information from each disparity map. The real distance from a disparity image is converted into an occupancy grid representation of a mobile robot. We have investigated the possibility of multi-range approach for the detection of obstacles and visual mapping through various experiments.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号