首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 156 毫秒
1.
立体匹配算法在图像弱纹理区和重复纹理区存在匹配困难、误差大的问题,为此提出一种基于改进代价计算和视差候选策略的立体匹配算法。首先结合改进的Census变换和自适应加权融合的双向梯度信息来计算初始匹配代价,提高代价计算的可靠性。其中:为传统Census变换增加内圈编码,提高邻域信息利用率,同时降低噪声的影响;利用自适应权重函数融合横向和纵向梯度代价,降低物体边缘区域的误匹配率。其次,采用自适应十字交叉窗口进行代价聚合,并通过建立候选视差集和引入邻域视差信息的方法来获取初始视差。最后通过两轮插值策略优化视差。实验结果表明,所提算法能够提高弱纹理区和重复纹理区的匹配效果,在Middlebury中4幅标准立体图像对的平均误匹配率为5.33%。  相似文献   

2.
双目立体匹配根据视差原理将平面视觉转化到三维立体视觉,是三维重建的核心步骤之一。针对局部立体匹配算法在深度不连续、弱纹理区域匹配精度低且易受光照、噪声等因素干扰的问题,提出了一种改进的立体匹配算法。首先,在代价计算阶段将改进的Census代价与梯度代价进行融合,并采用引导滤波算法对图像进行多尺度代价聚合;然后,采用赢家通吃算法计算初始视差;最后,采用左右一致性检测、中值滤波进行视差后处理,得到最终的视差图。实验结果表明,本算法在Middlebury2.0测试平台上的平均误匹配率为5.11%,且具有很好的稳健性和实用性。  相似文献   

3.
陆明军  叶兵 《半导体光电》2021,42(6):931-935
立体匹配是双目视觉领域的重要研究方向.为在保证图片纹理区域匹配精度的同时降低弱纹理区域的误匹配率,提出一种基于引导滤波及视差图融合的立体匹配方法.首先,根据图像颜色相似性将图片划分为纹理较丰富区域和弱纹理区域.接着,分别采用不同参数的引导滤波进行代价聚合及视差计算,得到两张视差图.然后依据纹理区域划分的结果对获得的两张视差图进行融合.最后,通过左右一致性检测、加权中值滤波等视差优化步骤得到最终视差图.对Middlebury测试平台上标准图像对的实验结果表明,该方法在6组弱纹理图像上的平均误匹配率为9.67%,较传统引导滤波立体匹配算法具有更高的匹配精度.  相似文献   

4.
传统的基于全局优化的立体匹配算法计算复杂度较高,在遮挡和视差不连续区域具有较差的匹配精度。提出了基于Tao 立体匹配框架的全局优化算法。首先采用高效的局部算法获取初始匹配视差;然后对得到的视差值进行可信度检测,利用可信像素点和视差平面假设使用具有鲁棒性的低复杂度算法修正不可信任像素视差值;最后改进置信度传播算法,使其能够自适应地停止收敛节点的消息传播,并对经修正的初始匹配进行优化,提高弱纹理区域匹配准确度。实验结果表明,文中算法有效地降低整体误匹配率,改善了视差不连续及遮挡区域的匹配精度;同时,降低了算法整体复杂度,兼顾了速度,具有一定的实用性。  相似文献   

5.
在立体匹配中,同时保证算法的精度和速度是一个技术难题。提出了一种基于贝叶斯理论的快速稠密立体匹配算法。将贝叶斯概率分布理论应用到立体匹配问题上,利用MSERDoG算子提取支撑点,像素灰度值作为匹配代价、固定窗口作为代价聚合对其进行匹配,对匹配好的支撑点进行三角剖分,将支撑点的视差、梯度、三角剖分的线性系数及分割作为计算视差的先验概率条件,从而保证了有效的视差搜索空间,提高了匹配效率。最终通过最小化能量函数获得稠密的视差图。在国际标准Middlebury平台进行实验,结果表明提出的算法匹配精度高,速度快,误匹配率低,匹配效率高。  相似文献   

6.
尽管传统的立体匹配模型在精度和鲁棒性方面都表现出了良好的性能,但在弱纹理和深度不连续区域的视差精度问题依然存在。针对上述问题,提出了一种基于改进匹配代价和均值分割的最小生成树立体匹配算法。首先,在匹配代价计算阶段,通过Census变换进行初始匹配代价计算,利用Sobel算子对输入图像进行边缘信息提取,将提取后的图像边缘信息与Census变换后的匹配代价值进行融合,并将其与基于图像亮度信息的代价值进行非线性融合,以提高匹配代价的精度;然后,使用最小生成树代价聚合模型进行聚合操作并利用赢者通吃策略估计图像的初始视差;最后,在视差优化阶段,采用MeanShift算法对图像进行分割,结合图像的轮廓信息对误匹配点进行修正,进一步提高在弱纹理及边缘区域的视差精度。实验结果表明,与一些传统算法相比,所提算法具有更高的视差精度,且视差图的边缘、纹理较其他算法更为平滑,具有更强的鲁棒性。  相似文献   

7.
针对现有立体匹配算法在弱纹理区域及深度不连续区域匹配精度低的问题,提出一种基于自适应区域划分的立体匹配算法。首先,利用十字交叉域算法获取像素点臂长,计算像素变化率完成区域划分。然后,通过绝对差算法,改进Census变换和自适应加权梯度算子计算初始代价卷,利用十字交叉域进行代价聚合,对聚合后图像通过改进引导图滤波优化,使用赢者通吃策略筛选最优视差。最后,利用左右一致性检测、迭代区域投票、视差填充优化和中值滤波得到最终视差图。在Middlebury测试平台上测试结果表明,所提算法平均误差率为4.21%,能够有效提升在弱纹理区域及深度不连续区域的匹配精度。  相似文献   

8.
立体匹配一直以来都是双目视觉领域中研究的重点 和难点。针对现有立体匹配算法边 缘保持性差、匹配精度低等问题,提出了一种二次加权引导滤波融合双色彩空间模型的立体 匹配算法(Secondary Weighted Guided Filtering fusion double color model,SWGF)。首 先在代价计算阶段提出了一种双色彩空间模型,从两个颜色空间进行像素颜色匹配代价计算 ,增强像素在低纹理区域的特征;然后在代价聚合阶段基于HSV颜色空间利用不同窗口中像 素纹理不同加入一个边缘保持项,从而使正则化参数进行自适应调整。在一次引导滤波之后 ,我们使用Census变换得到的汉明距离和初始视差完成一次代价更新,再次对其进行代价聚 合,随后计算视差并对视差进行左右一致性检测、空洞填充和加权中值滤波等优化,最后获 得视差图。本文算法在Middlebury测试平台上测试结果表明SWGF算法误匹配率仅为 4.61%,可以大幅提升立体匹配的精度,同时增强其边缘保持性。  相似文献   

9.
针对传统Census变换在匹配代价计算中易受噪声影响、匹配精度较低的问题,提出一种引入噪声容限的四状态Census变换算法。在匹配代价计算中,首先将改进的Census匹配代价与灰度绝对差值和梯度代价进行融合,并加入相应的截断阈值,以提高初始匹配代价空间的可靠性。然后通过引导图滤波进行代价聚合,并采用赢家通吃策略计算初始视差值。最后通过左右一致性检验、视差填充和加权中值滤波来优化初始视差值,得到最终视差图。实验结果表明,所提算法的噪声鲁棒性优于传统Census变换算法,且立体匹配算法的整体误匹配率降低至5.59%。  相似文献   

10.
针对传统动态规划立体匹配算法会在边界区域产生明显条纹状瑕疵的问题,提出了一种基于结构特征的全局立体匹配算法。该算法在提出了结合图像局部灰度特征和图像纹理结构特征的基础上,构建了基于证据理论的多重判据,并以之作为相似性测度函数。然后结合Sobel算子、双边滤波和Canny算子提出了自适应图像边缘提取算法,对于图像边缘像素,放宽视差搜索范围,降低了边界处误匹配率。最后基于扫描行间约束,引入了行列双动态规划立体匹配算法,同时将视差搜索范围限制在一定范围内,以提高算法效率。实验表明,该算法可以有效降低视差图在边界区域的误匹配率,减少条纹瑕疵,提高图像匹配质量。  相似文献   

11.
Guided image filtering (GIF) based cost aggregation or disparity refinement stereo matching algorithms are studied extensively owing to the edge-aware preserved smoothing property. However, GIF suffers from halo artifacts in sharp edges and shows high computational costs on high-resolution images. The performance of GIF in stereo matching would be limited by the above two defects. To solve these problems, a novel fast gradient domain guided image filtering (F-GDGIF) is proposed. To be specific, halo artifacts are effectively alleviated by incorporating an efficient multi-scale edge-aware weighting into GIF. With this multi-scale weighting, edges can be preserved much better. In addition, high computational costs are cut down by sub-sampling strategy, which decreases the computational complexity from O(N) to O(N/s2) (s: sub-sampling ratio) To verify the effectiveness of the algorithm, F-GDGIF is applied to cost aggregation and disparity refinement in stereo matching algorithms respectively. Experiments on the Middlebury evaluation benchmark demonstrate that F-GDGIF based stereo matching method can generate more accuracy disparity maps with low computational cost compared to other GIF based methods.  相似文献   

12.
为解决现有立体匹配算法在图像弱纹理等区域鲁棒性差以及模型参数较大的问题,对PSMNet立体匹配方法进行改善,通过使用空洞空间卷积池化金字塔结构(atrous spatial pooling pyramid,ASPP)提取图像在不同尺度下的空间特征信息。随后引入通道注意力机制,给予不同尺度的特征信息相应的权重。融合以上信息构建匹配代价卷,利用沙漏形状的编解码网络对其进行规范化操作,从而确定特征点在各种视差情况下的相互对应关系,最后采用线性回归的方法得到相应的视差图。与PSMNet相比,该研究在SceneFlow和KITTI2015数据集里的误差率各自减少了14.6%和11.1%,且计算复杂度下降了55%。相比较于传统算法,可以改善视差图精度,提升三维重建点云数据质量。  相似文献   

13.
针对传统区域匹配算法中存在大量冗余计算,提出了一种多分辨率与视差梯度相结合的快速匹配算法。首先通过均值采样得到低分辨率图像对,再通过改进的视差梯度约束算法进行匹配得到低分辨率图像的视差图,最后引入盒滤波思想指导原始视差图的生成。实验表明,该快速匹配算法相对于传统的区域匹配算法,在改善精度的同时,减少了三倍以上运算时间。  相似文献   

14.
该文利用韦伯定律和导引滤波提出基于代价分层聚合的快速立体匹配方法。首先提取立体图像对各彩色通道Weber描述符并初始化匹配代价。利用导引滤波增强匹配代价并提取视差候选;利用候选子集联合空间离散采样与自适应支持权重实现分层代价聚合;据此快速择优选取初始视差。视差求精中采用改进型双边滤波和对称映射后处理有效改善初始视差图中歧义区域。实验表明,该文方法能有效消除匹配歧义,获得分段平滑、高精度稠密视差;结构简单、快速高效且对光照变化具有鲁棒性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号