首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 156 毫秒
1.
针对现有立体匹配算法在弱纹理区域及深度不连续区域匹配精度低的问题,提出一种基于自适应区域划分的立体匹配算法。首先,利用十字交叉域算法获取像素点臂长,计算像素变化率完成区域划分。然后,通过绝对差算法,改进Census变换和自适应加权梯度算子计算初始代价卷,利用十字交叉域进行代价聚合,对聚合后图像通过改进引导图滤波优化,使用赢者通吃策略筛选最优视差。最后,利用左右一致性检测、迭代区域投票、视差填充优化和中值滤波得到最终视差图。在Middlebury测试平台上测试结果表明,所提算法平均误差率为4.21%,能够有效提升在弱纹理区域及深度不连续区域的匹配精度。  相似文献   

2.
针对在立体匹配过程中的低纹理和视差不连续的问题,提出了一种基于图像分割的立体匹配算法。首先采用Mean-Shift算法对彩色图像进行图像分割,并认为分割区域块内的像素视差是平滑的,然后采用较大窗口匹配方法,提取左右彩色图像相似像素点作为种子点,根据区域内的平滑约束条件,利用小窗口匹配方法将种子点向周围区域扩散,最终得到稠密视差图。实验结果表明该算法相比传统的自适应匹配算法,视差不连续区域匹配误差降低10%左右。  相似文献   

3.
陆明军  叶兵 《半导体光电》2021,42(6):931-935
立体匹配是双目视觉领域的重要研究方向.为在保证图片纹理区域匹配精度的同时降低弱纹理区域的误匹配率,提出一种基于引导滤波及视差图融合的立体匹配方法.首先,根据图像颜色相似性将图片划分为纹理较丰富区域和弱纹理区域.接着,分别采用不同参数的引导滤波进行代价聚合及视差计算,得到两张视差图.然后依据纹理区域划分的结果对获得的两张视差图进行融合.最后,通过左右一致性检测、加权中值滤波等视差优化步骤得到最终视差图.对Middlebury测试平台上标准图像对的实验结果表明,该方法在6组弱纹理图像上的平均误匹配率为9.67%,较传统引导滤波立体匹配算法具有更高的匹配精度.  相似文献   

4.
图像多通道边缘信息辅助的快速立体匹配算法   总被引:1,自引:1,他引:0  
提出一种基于图像边缘及色彩信息辅助的立体匹配算法.首先给出一种彩色边缘侦测算子来获取彩色图像边缘信息,利用基于归一化相关系数的极线立体匹配得到视差图像边缘像素的视差信息.然后利用已获取彩色图像对的边缘信息对双步骤动态规划匹配策略进行匹配指导,获取稠密视差图并进一步优化.实验表明,提出的算法能很好地降低图像对中强度接近物体的误匹配概率的同时,有效提高匹配算法的运行效率.  相似文献   

5.
立体匹配一直以来都是双目视觉领域中研究的重点 和难点。针对现有立体匹配算法边 缘保持性差、匹配精度低等问题,提出了一种二次加权引导滤波融合双色彩空间模型的立体 匹配算法(Secondary Weighted Guided Filtering fusion double color model,SWGF)。首 先在代价计算阶段提出了一种双色彩空间模型,从两个颜色空间进行像素颜色匹配代价计算 ,增强像素在低纹理区域的特征;然后在代价聚合阶段基于HSV颜色空间利用不同窗口中像 素纹理不同加入一个边缘保持项,从而使正则化参数进行自适应调整。在一次引导滤波之后 ,我们使用Census变换得到的汉明距离和初始视差完成一次代价更新,再次对其进行代价聚 合,随后计算视差并对视差进行左右一致性检测、空洞填充和加权中值滤波等优化,最后获 得视差图。本文算法在Middlebury测试平台上测试结果表明SWGF算法误匹配率仅为 4.61%,可以大幅提升立体匹配的精度,同时增强其边缘保持性。  相似文献   

6.
双目立体匹配根据视差原理将平面视觉转化到三维立体视觉,是三维重建的核心步骤之一。针对局部立体匹配算法在深度不连续、弱纹理区域匹配精度低且易受光照、噪声等因素干扰的问题,提出了一种改进的立体匹配算法。首先,在代价计算阶段将改进的Census代价与梯度代价进行融合,并采用引导滤波算法对图像进行多尺度代价聚合;然后,采用赢家通吃算法计算初始视差;最后,采用左右一致性检测、中值滤波进行视差后处理,得到最终的视差图。实验结果表明,本算法在Middlebury2.0测试平台上的平均误匹配率为5.11%,且具有很好的稳健性和实用性。  相似文献   

7.
针对现有局部立体匹配算法在计算匹配代价时, 不能很好区分强弱纹理区域,及在视差计算过程 中,不能很好的解决视差歧义问题,提出一种融合梯度特性与置信度的立体匹配算法。首先 计算梯度特 征,并根据梯度特征信息选择匹配代价计算的匹配窗口,针对强弱不同纹理区域选择不同尺 寸的匹配窗 口,有效的提高了立体匹配精度,降低了误匹配率;然后在视差计算中引入置信度约束条件 ,解决了视差 计算中视差歧义的问题,提高了立体匹配算法的稳定性与精度;最后使用水平与垂直方向交 叉区域检测进 行奇异值的修正。实验结果表明,该算法在Middlebury数据集中31对 立体图像对的平均误匹配率为7.96%,有效的提高了立体匹配精度。  相似文献   

8.
为解决现有立体匹配算法在图像弱纹理等区域鲁棒性差以及模型参数较大的问题,对PSMNet立体匹配方法进行改善,通过使用空洞空间卷积池化金字塔结构(atrous spatial pooling pyramid,ASPP)提取图像在不同尺度下的空间特征信息。随后引入通道注意力机制,给予不同尺度的特征信息相应的权重。融合以上信息构建匹配代价卷,利用沙漏形状的编解码网络对其进行规范化操作,从而确定特征点在各种视差情况下的相互对应关系,最后采用线性回归的方法得到相应的视差图。与PSMNet相比,该研究在SceneFlow和KITTI2015数据集里的误差率各自减少了14.6%和11.1%,且计算复杂度下降了55%。相比较于传统算法,可以改善视差图精度,提升三维重建点云数据质量。  相似文献   

9.
马滨滨  肖玲 《电子测试》2022,(22):11-15
在实际的三维工件测量环境中,外界光照、噪声均会对立体匹配结果产生巨大影响,从而影响最终三维重构的结果。本文提出了一种基于自适应权重的SAD-Census立体匹配算法,首先对Census立体匹配算法进行了改进,然后将代价聚合中构建的十字代价聚合区域最小臂长与空间阈值和颜色阈值的比值作为权重,融合SAD立体匹配算法和改进后的Census立体匹配算法计算视差图。最后通过对Middlebury立体匹配测试平台提供的标准图像对进行测试。测试结果表明,改进后的Census立体匹配算法具有更好的鲁棒性、在弱纹理区域匹配精度更高,基于自适应权重的SAD-Census可以得到准确的视差图。  相似文献   

10.
《现代电子技术》2018,(1):62-66
提出一种基于"客观度量"和"深度学习"共同驱动的立体匹配方法,互补"度量"和"学习"特征,提升立体匹配视差图的精度。将基于灰度差绝对和(SAD)与灰度梯度差绝对和(GRAD)两类算子的客观计算特征和基于数据驱动的深度学习特征进行加权融合,构建匹配代价模型;采用引导滤波器对匹配代价进行聚合;通过胜者全赢算法得到初始视差图;最后,运用左右一致性校验和加权中值滤波器优化视差图,去除误匹配点,得到最优视差图。在Middlebury立体匹配评估平台上的测试实验表明,所提算法能有效降低视差图平均绝对误差和均方根误差。  相似文献   

11.
基于改进Census变换的局部立体匹配算法   总被引:1,自引:0,他引:1  
针对基于传统Census变换的立体匹配算法鲁棒性差和精度不高的问题,提出一种基于改进Census变换的自适应权重立体匹配算法.首先,用Census变换窗口中邻域像素的中值来替换中心像素的灰度值,克服了邻域像素对中心像素的依赖;然后用自适应权重的方法分别计算匹配代价和进行立体匹配,得到初始视差;最后通过左右一致性校验和亚像素提精的方法得到稠密的视差图.实验结果表明,该算法有很强的鲁棒性和很高的匹配精度.  相似文献   

12.
为了解决局部匹配算法误匹配率高的问题,提出 一种基于AD-Census变换和多扫描线优化的半全局匹配算 法。首先,通过绝对差AD算法与Census变换相结合作为相似性度量函数计算初始匹配代价, 并构建动态交叉域聚合 匹配代价;然后在代价聚合计算阶段,将一维动态规划的代价聚合推广到多扫描线优化,利 用上下左右四个方向逐 次扫描进行匹配代价聚合的计算,并引入正则化约束以确保匹配代价聚合的一致性,大大减 少初始代价中的匹配异 常点;最后,运用简单高效的胜者为王策略选出像素点在代价聚合最小时对应的视差,并在 视差细化阶段,采用左 右一致性检测和抛物线拟合方法进行后续处理以提高立体匹配的正确率。实验结果证明,该 算法可获得高匹配率的视差图并且耗时较少。  相似文献   

13.
针对六旋翼无人机双目视觉成像时,经双目融合后反馈的图像噪点过多,以及图像精度不够理想的问题,提出了一种在匹配过程中融入全局差错能量最小化的区域立体视觉匹配算法。由于视差的求解是立体匹配过程中最重要的环节,因此本文利用最小化差错能量矩阵求解最优视差的原理。通过提高立体视觉的视差精度,从而减少视觉融合过程中因数据问题产生的噪声干扰,最终提高了对场景信息三维重构的准确度。通过分别在室内外的仿真实验与真实环境重构实验,验证了本文提出的基于双目视觉的六旋翼无人机立体匹配算法的有效性与可靠性。  相似文献   

14.
针对传统Census变换在匹配代价计算中易受噪声影响、匹配精度较低的问题,提出一种引入噪声容限的四状态Census变换算法。在匹配代价计算中,首先将改进的Census匹配代价与灰度绝对差值和梯度代价进行融合,并加入相应的截断阈值,以提高初始匹配代价空间的可靠性。然后通过引导图滤波进行代价聚合,并采用赢家通吃策略计算初始视差值。最后通过左右一致性检验、视差填充和加权中值滤波来优化初始视差值,得到最终视差图。实验结果表明,所提算法的噪声鲁棒性优于传统Census变换算法,且立体匹配算法的整体误匹配率降低至5.59%。  相似文献   

15.
林川  潘盛辉  李梦和 《信息技术》2011,(8):49-51,54
为获得图像边界区域有效视差信息,提出一种图像分块匹配的算法。首先根据像素点匹配窗口及视差搜索范围的越界情况,将图像分为中心和边界共九块,然后针对边界块,按照基准点靠近窗口中心的原则设定匹配窗口,最后分析了边界块与分界线上像素点的视差值关系。实验结果表明,该算法能获得良好的边界视差信息并节省了匹配时间。  相似文献   

16.
针对传统区域匹配算法中存在大量冗余计算,提出了一种多分辨率与视差梯度相结合的快速匹配算法。首先通过均值采样得到低分辨率图像对,再通过改进的视差梯度约束算法进行匹配得到低分辨率图像的视差图,最后引入盒滤波思想指导原始视差图的生成。实验表明,该快速匹配算法相对于传统的区域匹配算法,在改善精度的同时,减少了三倍以上运算时间。  相似文献   

17.
Guided image filtering (GIF) based cost aggregation or disparity refinement stereo matching algorithms are studied extensively owing to the edge-aware preserved smoothing property. However, GIF suffers from halo artifacts in sharp edges and shows high computational costs on high-resolution images. The performance of GIF in stereo matching would be limited by the above two defects. To solve these problems, a novel fast gradient domain guided image filtering (F-GDGIF) is proposed. To be specific, halo artifacts are effectively alleviated by incorporating an efficient multi-scale edge-aware weighting into GIF. With this multi-scale weighting, edges can be preserved much better. In addition, high computational costs are cut down by sub-sampling strategy, which decreases the computational complexity from O(N) to O(N/s2) (s: sub-sampling ratio) To verify the effectiveness of the algorithm, F-GDGIF is applied to cost aggregation and disparity refinement in stereo matching algorithms respectively. Experiments on the Middlebury evaluation benchmark demonstrate that F-GDGIF based stereo matching method can generate more accuracy disparity maps with low computational cost compared to other GIF based methods.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号