共查询到17条相似文献,搜索用时 156 毫秒
1.
针对现有立体匹配算法在弱纹理区域及深度不连续区域匹配精度低的问题,提出一种基于自适应区域划分的立体匹配算法。首先,利用十字交叉域算法获取像素点臂长,计算像素变化率完成区域划分。然后,通过绝对差算法,改进Census变换和自适应加权梯度算子计算初始代价卷,利用十字交叉域进行代价聚合,对聚合后图像通过改进引导图滤波优化,使用赢者通吃策略筛选最优视差。最后,利用左右一致性检测、迭代区域投票、视差填充优化和中值滤波得到最终视差图。在Middlebury测试平台上测试结果表明,所提算法平均误差率为4.21%,能够有效提升在弱纹理区域及深度不连续区域的匹配精度。 相似文献
2.
3.
立体匹配是双目视觉领域的重要研究方向.为在保证图片纹理区域匹配精度的同时降低弱纹理区域的误匹配率,提出一种基于引导滤波及视差图融合的立体匹配方法.首先,根据图像颜色相似性将图片划分为纹理较丰富区域和弱纹理区域.接着,分别采用不同参数的引导滤波进行代价聚合及视差计算,得到两张视差图.然后依据纹理区域划分的结果对获得的两张视差图进行融合.最后,通过左右一致性检测、加权中值滤波等视差优化步骤得到最终视差图.对Middlebury测试平台上标准图像对的实验结果表明,该方法在6组弱纹理图像上的平均误匹配率为9.67%,较传统引导滤波立体匹配算法具有更高的匹配精度. 相似文献
4.
5.
立体匹配一直以来都是双目视觉领域中研究的重点 和难点。针对现有立体匹配算法边 缘保持性差、匹配精度低等问题,提出了一种二次加权引导滤波融合双色彩空间模型的立体 匹配算法(Secondary Weighted Guided Filtering fusion double color model,SWGF)。首 先在代价计算阶段提出了一种双色彩空间模型,从两个颜色空间进行像素颜色匹配代价计算 ,增强像素在低纹理区域的特征;然后在代价聚合阶段基于HSV颜色空间利用不同窗口中像 素纹理不同加入一个边缘保持项,从而使正则化参数进行自适应调整。在一次引导滤波之后 ,我们使用Census变换得到的汉明距离和初始视差完成一次代价更新,再次对其进行代价聚 合,随后计算视差并对视差进行左右一致性检测、空洞填充和加权中值滤波等优化,最后获 得视差图。本文算法在Middlebury测试平台上测试结果表明SWGF算法误匹配率仅为 4.61%,可以大幅提升立体匹配的精度,同时增强其边缘保持性。 相似文献
6.
双目立体匹配根据视差原理将平面视觉转化到三维立体视觉,是三维重建的核心步骤之一。针对局部立体匹配算法在深度不连续、弱纹理区域匹配精度低且易受光照、噪声等因素干扰的问题,提出了一种改进的立体匹配算法。首先,在代价计算阶段将改进的Census代价与梯度代价进行融合,并采用引导滤波算法对图像进行多尺度代价聚合;然后,采用赢家通吃算法计算初始视差;最后,采用左右一致性检测、中值滤波进行视差后处理,得到最终的视差图。实验结果表明,本算法在Middlebury2.0测试平台上的平均误匹配率为5.11%,且具有很好的稳健性和实用性。 相似文献
7.
针对现有局部立体匹配算法在计算匹配代价时, 不能很好区分强弱纹理区域,及在视差计算过程 中,不能很好的解决视差歧义问题,提出一种融合梯度特性与置信度的立体匹配算法。首先 计算梯度特 征,并根据梯度特征信息选择匹配代价计算的匹配窗口,针对强弱不同纹理区域选择不同尺 寸的匹配窗 口,有效的提高了立体匹配精度,降低了误匹配率;然后在视差计算中引入置信度约束条件 ,解决了视差 计算中视差歧义的问题,提高了立体匹配算法的稳定性与精度;最后使用水平与垂直方向交 叉区域检测进 行奇异值的修正。实验结果表明,该算法在Middlebury数据集中31对 立体图像对的平均误匹配率为7.96%,有效的提高了立体匹配精度。 相似文献
8.
为解决现有立体匹配算法在图像弱纹理等区域鲁棒性差以及模型参数较大的问题,对PSMNet立体匹配方法进行改善,通过使用空洞空间卷积池化金字塔结构(atrous spatial pooling pyramid,ASPP)提取图像在不同尺度下的空间特征信息。随后引入通道注意力机制,给予不同尺度的特征信息相应的权重。融合以上信息构建匹配代价卷,利用沙漏形状的编解码网络对其进行规范化操作,从而确定特征点在各种视差情况下的相互对应关系,最后采用线性回归的方法得到相应的视差图。与PSMNet相比,该研究在SceneFlow和KITTI2015数据集里的误差率各自减少了14.6%和11.1%,且计算复杂度下降了55%。相比较于传统算法,可以改善视差图精度,提升三维重建点云数据质量。 相似文献
9.
在实际的三维工件测量环境中,外界光照、噪声均会对立体匹配结果产生巨大影响,从而影响最终三维重构的结果。本文提出了一种基于自适应权重的SAD-Census立体匹配算法,首先对Census立体匹配算法进行了改进,然后将代价聚合中构建的十字代价聚合区域最小臂长与空间阈值和颜色阈值的比值作为权重,融合SAD立体匹配算法和改进后的Census立体匹配算法计算视差图。最后通过对Middlebury立体匹配测试平台提供的标准图像对进行测试。测试结果表明,改进后的Census立体匹配算法具有更好的鲁棒性、在弱纹理区域匹配精度更高,基于自适应权重的SAD-Census可以得到准确的视差图。 相似文献
10.
11.
12.
为了解决局部匹配算法误匹配率高的问题,提出 一种基于AD-Census变换和多扫描线优化的半全局匹配算 法。首先,通过绝对差AD算法与Census变换相结合作为相似性度量函数计算初始匹配代价, 并构建动态交叉域聚合 匹配代价;然后在代价聚合计算阶段,将一维动态规划的代价聚合推广到多扫描线优化,利 用上下左右四个方向逐 次扫描进行匹配代价聚合的计算,并引入正则化约束以确保匹配代价聚合的一致性,大大减 少初始代价中的匹配异 常点;最后,运用简单高效的胜者为王策略选出像素点在代价聚合最小时对应的视差,并在 视差细化阶段,采用左 右一致性检测和抛物线拟合方法进行后续处理以提高立体匹配的正确率。实验结果证明,该 算法可获得高匹配率的视差图并且耗时较少。 相似文献
13.
针对六旋翼无人机双目视觉成像时,经双目融合后反馈的图像噪点过多,以及图像精度不够理想的问题,提出了一种在匹配过程中融入全局差错能量最小化的区域立体视觉匹配算法。由于视差的求解是立体匹配过程中最重要的环节,因此本文利用最小化差错能量矩阵求解最优视差的原理。通过提高立体视觉的视差精度,从而减少视觉融合过程中因数据问题产生的噪声干扰,最终提高了对场景信息三维重构的准确度。通过分别在室内外的仿真实验与真实环境重构实验,验证了本文提出的基于双目视觉的六旋翼无人机立体匹配算法的有效性与可靠性。 相似文献
14.
针对传统Census变换在匹配代价计算中易受噪声影响、匹配精度较低的问题,提出一种引入噪声容限的四状态Census变换算法。在匹配代价计算中,首先将改进的Census匹配代价与灰度绝对差值和梯度代价进行融合,并加入相应的截断阈值,以提高初始匹配代价空间的可靠性。然后通过引导图滤波进行代价聚合,并采用赢家通吃策略计算初始视差值。最后通过左右一致性检验、视差填充和加权中值滤波来优化初始视差值,得到最终视差图。实验结果表明,所提算法的噪声鲁棒性优于传统Census变换算法,且立体匹配算法的整体误匹配率降低至5.59%。 相似文献
15.
16.
针对传统区域匹配算法中存在大量冗余计算,提出了一种多分辨率与视差梯度相结合的快速匹配算法。首先通过均值采样得到低分辨率图像对,再通过改进的视差梯度约束算法进行匹配得到低分辨率图像的视差图,最后引入盒滤波思想指导原始视差图的生成。实验表明,该快速匹配算法相对于传统的区域匹配算法,在改善精度的同时,减少了三倍以上运算时间。 相似文献
17.
Guided image filtering (GIF) based cost aggregation or disparity refinement stereo matching algorithms are studied extensively owing to the edge-aware preserved smoothing property. However, GIF suffers from halo artifacts in sharp edges and shows high computational costs on high-resolution images. The performance of GIF in stereo matching would be limited by the above two defects. To solve these problems, a novel fast gradient domain guided image filtering (F-GDGIF) is proposed. To be specific, halo artifacts are effectively alleviated by incorporating an efficient multi-scale edge-aware weighting into GIF. With this multi-scale weighting, edges can be preserved much better. In addition, high computational costs are cut down by sub-sampling strategy, which decreases the computational complexity from O(N) to O(N/s2) (s: sub-sampling ratio) To verify the effectiveness of the algorithm, F-GDGIF is applied to cost aggregation and disparity refinement in stereo matching algorithms respectively. Experiments on the Middlebury evaluation benchmark demonstrate that F-GDGIF based stereo matching method can generate more accuracy disparity maps with low computational cost compared to other GIF based methods. 相似文献