首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 203 毫秒
1.
针对传统局部立体匹配算法在深度不连续区域误匹配率高的问题,提出一种基于自适应权重的遮挡信息立体匹配算法。首先,采用左右一致性检测算法检测参考图像与目标图像的遮挡区域;然后利用遮挡信息,在代价聚合阶段降低遮挡区域像素点所占权重,在视差优化阶段采用扫描线传播方式选择水平方向最近点填充遮挡区域的视差;最后,根据Middlebury数据集提供的标准视差图为视差结果计算误匹配率。实验结果表明,基于自适应权重的遮挡信息匹配算法相对于自适应权重算法误匹配率降低了16%,并解决了局部立体匹配算法在深度不连续区域误匹配率高的问题,提高了算法的匹配精确性。  相似文献   

2.
针对目前许多局部双目立体匹配方法在缺乏纹理区域、遮挡区域、深度不连续区域匹配精度低的问题,提出了基于多特征表示和超像素优化的立体匹配算法。通过在代价计算步骤中加入边缘信息特征,与图像局部信息代价相融合,增加了在视差计算时边缘区域的辨识度;在代价聚合步骤,基于超像素分割形成的超像素区域,利用米字骨架自适应搜索,得到聚合区域,对初始代价进行聚合;在视差精化步骤利用超像素分割信息,对匹配错误视差进行修正,提高匹配精度。基于Middlebury立体视觉数据集测试平台,与自适应权重AD-Census、FA等方法得出的视差图进行比较,该算法在深度不连续区域和缺乏纹理区域的匹配效果显著改善,提高了立体匹配精度。  相似文献   

3.
深度图像中视差跳变的像素点匹配一直是立体匹配的挑战性问题之一.基于引导滤波的局部立体匹配算法通过考虑匹配图像内容,可以在保持深度图像边缘的同时提高匹配精度、加快匹配速度,但引导滤波会产生图像光晕,在图像边缘区域也会引入大量的噪声.为此,将引导滤波的岭回归扩展到多元回归,提出一种基于多元线性回归的立体匹配算法.首先将引导滤波中只含图像像素值这一单变量的回归方程扩展为基于图像像素值和梯度信息等多个变量的多元回归方程,对初始代价值进行滤波聚合,并与单独进行引导滤波的匹配代价聚合值进行加权组合提高图像边缘的匹配效果;然后根据代价聚合最小值与次小值之间的相互关系定义了视差选择可信度,解决了视差选择时的歧义问题.在Middlebury测试平台进行了实验的结果表明,文中算法有效地提高深度图像中视差跳变像素点的匹配精度,降低了匹配噪声;与最新的高性能立体匹配算法相比,该算法可以以较小的计算复杂度获得高质量的视差图.  相似文献   

4.
余嘉昕  王春媛  韩华  高燕 《计算机工程》2023,(3):257-262+270
现有局部立体匹配算法与全局立体匹配算法相比,计算量更小、速度更快,能达到实时匹配的要求,但存在误匹配率较高、视差结果精度较低等问题。提出一种新的局部立体匹配算法,依据像素梯度信息、像素梯度的平均值及标准差计算多指标梯度代价,使算法对图像局部结构的表达更加全面。根据像素的灰度差异程度划分等级,提出7等级编码的精细化Census变换匹配代价,以有效识别图像信息之间的细微差异,弥补Census变换在相似纹理区域精度较低的不足。将多指标梯度代价和精细化Census变换匹配代价按一定权重进行融合,形成初始匹配代价,从而充分发挥两种代价的优越性。在代价聚合阶段,对引导滤波的线性系数进行自适应优化,解决固定参数引起图像局部过于平滑或平滑不足的问题,并使用优化后的引导滤波模型进行代价聚合,改善代价聚合的效果。使用胜者为王算法计算视差获得初始视差图,最后通过左右一致性检测和加权中值滤波进行视差优化,得到更为理想的视差图。在Middlebury V3立体评估平台上的实验结果表明,所提算法在非遮挡区域的加权平均误匹配率为15.7%,与Cens5、IGF、ISM等算法相比具有较高的精度。  相似文献   

5.
魏东  何雪 《计算机技术与发展》2022,(12):159-164+172
针对现有立体匹配算法在边缘、遮挡、视差不连续、弱纹理等区域匹配误差较大的问题,提出一种在利用视差注意力机制的基础上引入边缘和语义信息的立体匹配算法。在利用视差注意力机制进行代价计算和代价聚合中引入边缘细节信息改善边缘和遮挡区域匹配误差较大的问题,并对引入边缘信息时与特征提取过程中得到的不同尺度特征图融合的时机进行了讨论,确定浅层大尺度特征图引入边缘信息可以提高匹配精度;在视差优化中引入语义信息改善视差不连续和弱纹理区域匹配精度不高的问题,并对不同尺度特征图求取的语义信息对匹配精度的影响进行讨论,利用深层小尺度特征图提取语义信息可以提高匹配精度。提出的方法在SceneFlow数据集上进行了测试,将基准网络PASMNet的误差降低了49.05%,并与其他算法进行对比分析。实验结果表明,边缘和语义等引导信息的引入有针对性地改善了现有算法在边缘、遮挡、视差不连续和弱纹理区域的视差精度,从而提高了整体预测精度。  相似文献   

6.
储珺  龚文  缪君  张桂梅 《自动化学报》2015,41(11):1941-1950
传统的动态规划立体匹配算法能有效保证匹配精度的同时提高运行速度, 但得到的视差深度图会出现明显的条纹现象,同时在图像弱纹理区域以及边缘存在较高的误匹配. 针对该问题,提出了一种新的基于线性滤波的树形结构动态规划立体匹配算法. 算法首先运用改进的结合颜色和梯度信息参数可调的自适应测度函数构建左右图像的匹配代价, 然后以左图像为引导图对构建的匹配代价进行滤波; 再运用行列双向树形结构的动态规划算法进行视差全局优化, 最后进行视差求精得到最终的视差图.理论分析和实验结果都表明, 本文的算法能有效地改善动态规划算法的条纹现象以及弱纹理区域和边缘存在的误匹配.  相似文献   

7.
针对基于最小生成树的非局部算法在无纹理以及边缘区域出现误匹配的问题,提出了一种改进代价计算和颜色与边缘融合的非局部立体匹配算法。首先重新构造了基于颜色-梯度的代价计算函数,以提高无纹理区域像素对代价聚合的贡献率;其次利用颜色与边缘信息进行融合来构造自适应边权函数,并利用该权重构建树结构进行代价聚合;最后通过视差计算和非局部视差优化得到最终的视差图。在Middlebury数据集上进行了测试,实验结果表明,提出的算法在无纹理及边缘区域都取得了良好的匹配效果,有效地改善了视差。  相似文献   

8.
针对立体匹配算法中匹配精度不高的问题,提出一种基于树形滤波的立体匹配算法.利用像素边缘信息自适应改变Census变换窗口,融合颜色、边缘和改进后的Census信息作为匹配代价,对图像进行均值分割,以聚类区域计算树边权重,建立最小生成树,利用树形滤波器进行代价聚合,使用左右一致性检测细化视差,得到精确视差图.实验结果表明,该算法具有更优的匹配精度且生成的视差图具有良好的边缘保持特性,能够较好适应各种复杂场景.  相似文献   

9.
《传感器与微系统》2019,(6):144-147
针对现有非局部立体匹配算法在不同纹理图像下因选取固定参数而导致整体误匹配率偏高的问题,提出一种自适应参数的非局部立体匹配算法。对颜色差和水平及垂直方向梯度代价进行归一化处理并加权融合,通过对融合后代价作对数变换,提高了单像素匹配代价在低纹理区域表现;在色度,饱和度,纯度(HSV)颜色空间上,计算参考图的平均色度差,自适应调节代价聚合参数;经过视差选择获得视差图。实验结果表明:所提算法在Middlebury测试平台对31组立体图像对处理后的平均误差为7. 86%。在低纹理区域误匹配率进一步降低,具有更好的泛化性。  相似文献   

10.
针对立体匹配算法中,census变换在弱纹理区域具有较好效果,但忽略了图像的灰度信息,造成在重复纹理区域匹配效果不理想,提出了一种改进的census变换。在初始匹配代价阶段,设计了一种在census变换的基础上融合互信息和梯度信息的相似性测度算法。在代价聚合阶段,采用自适应权重引导滤波聚合策略。最后,通过视差计算、视差优化得到最终的视差图。在VS2015软件平台上对Middlebury网站上提供的标准测试图进行实验,实验结果表明,所提算法能够得到较为准确的视差图,平均误匹配率为5.29%,可以满足三维重构的需要。  相似文献   

11.
作为双目三维重建中的关键步骤,双目立体匹配算法完成了从平面视觉到立体视觉的转化.但如何平衡双目立体匹配算法的运行速度和精度仍然是一个棘手的问题.本文针对现有的局部立体匹配算法在弱纹理、深度不连续等特定区域匹配精度低的问题,并同时考虑到算法实时性,提出了一种改进的跨多尺度引导滤波的立体匹配算法.首先融合AD和Census变换两种代价计算方法,然后采用基于跨尺度的引导滤波进行代价聚合,在进行视差计算时通过制定一个判断准则判断图像中每一个像素点的最小聚合代价对应的视差值是否可靠,当判断对应的视差值不可靠时,对像素点构建基于梯度相似性的自适应窗口,并基于自适应窗口修正该像素点对应的视差值.最后通过视差精化得到最终的视差图.在Middlebury测试平台上对标准立体图像对的实验结果表明,与传统基于引导滤波器的立体匹配算法相比具有更高的精度.  相似文献   

12.
针对局部立体匹配中存在的弱纹理区域匹配精度较低、斜面等区域容易产生视差阶梯效应等问题,文中提出基于分割导向滤波的视差优化算法,以获得亚像素级高精度匹配视差.首先依据左右一致性准则对立体匹配的初始视差进行误匹配检验及均值滤波修正.然后在修正视差图上确定区域分割导向图,对修正视差进行区域导向滤波优化,获得亚像素级高精度的视差结果.实验表明,文中算法能有效改善斜面等区域的视差不平滑现象,降低初始视差的误匹配率,获得较高精度的稠密视差结果.  相似文献   

13.
Stereo matching is a challenging problem and highly accurate depth image is important in different applications. The main problem is to estimate the correspondence between two pixels in a stereo pair. To solve this problem, in the last decade, several cost aggregation methods aimed at improving the quality of stereo matching algorithms have been introduced. We propose a new cost aggregation method based on weighted guided image filtering (WGIF) for local stereo matching. The proposed algorithm solves multi-label problems in three steps. First, the cost volume is constructed using pixel-wise matching cost computation functions. Then, each slice of the cost volume is independently filtered using the WGIF, which substitutes for the smoothness term in the energy function. Finally, the disparity of any pixel is simply computed. The WGIF uses local weights based on a variance window of pixels in a guidance image for cost volume filtering. Experimental results using Middlebury stereo benchmark verify that the proposed method is effective due to a high quality cost volume filter.  相似文献   

14.
针对传统立体匹配算法无法同时为图像边缘和低纹理区域提供一个合适大小的聚合窗口而导致匹配精度较低的难题,提出一种结合高斯混合模型及最小生成树结构的立体匹配算法。通过图像初始视差、像素颜色及距离信息将图像分为初始若干区域及待分割候选像素;基于高斯混合模型并行迭代更新各区域参数,得到最终的分割;在各分割上建立最小生成树计算聚合值求取视差;通过邻域内的有效视差修正误匹配点,获取精度较高的稠密视差图。与其他算法相比,该算法能有效降低误匹配率,尤其在深度不连续区域的匹配效果显著改善。  相似文献   

15.
针对图像全局立体匹配精度高、计算量大的问题,提出基于mean shift图像分割的全局立体匹配方法。首先,通过mean shift算法对图像进行分割,获取图像同质区域数量和区域的标号。在计算匹配代价时,根据像素所属的分割区域,对像素进行筛选,从而提高匹配代价计算速度;其次,在代价聚合前,将mean shift算法获取的同质区域数K值赋值给K-means聚类算法,对像素再次聚类,提高立体匹配精度和速度;最后通过TRW-S置信传播解决能量最小化问题。实验表明,该算法明显提高了匹配的准确性和速度,与单纯的全局匹配算法相比,具有更大的优势。  相似文献   

16.
In this paper, a new algorithm is presented to compute the disparity map from a stereo pair of images by using Belief Propagation (BP). While many algorithms have been proposed in recent years, the real-time computation of an accurate disparity map is still a challenging task. The computation time and run-time memory requirements are two very important factors for all real-time applications. The proposed algorithm divides the matching process into two steps; they are initial matching and disparity map refinement. Initial matching is performed by memory efficient hierarchical belief propagation algorithm that uses less than half memory at run-time and minimizes the energy function at much faster rate as compare to other hierarchical BP algorithms that makes it more suitable for real-time applications. Disparity map refinement uses a simple but very effective single-pass approach that improves the accuracy without affecting the computation cost. Experiments by using Middlebury dataset demonstrate that the performance of our algorithm is the best among other real-time stereo matching algorithms.  相似文献   

17.
针对在立体匹配中弱纹理及纯色区域匹配不准确和图像分割算法耗时较多的问题,提出一种融合图像分割的立体匹配算法。首先,将初始图像进行高斯滤波和Sobel平滑的处理,获取图像的边缘特征图;然后,将原图的红、绿、蓝三个通道值采用最大类间方差法进行二分类,再融合得到分割模板图;最后,将所得到的灰度图、边缘特征图和分割模板图用于视差计算和视差优化的过程,计算得到视差图。相比绝对差值和(SAD)算法,所提算法在精度上平均提升了14.23个百分点,时间开销上平均每万个像素点只多消耗了7.16 ms。实验结果表明,该算法在纯色及弱纹理区域和视差不连续区域取得了更加平滑的匹配结果,在图像分割上能够自动计算阈值且能够较快地对图像进行分割。  相似文献   

18.
We present a new feature based algorithm for stereo correspondence. Most of the previous feature based methods match sparse features like edge pixels, producing only sparse disparity maps. Our algorithm detects and matches dense features between the left and right images of a stereo pair, producing a semi-dense disparity map. Our dense feature is defined with respect to both images of a stereo pair, and it is computed during the stereo matching process, not a preprocessing step. In essence, a dense feature is a connected set of pixels in the left image and a corresponding set of pixels in the right image such that the intensity edges on the boundary of these sets are stronger than their matching error (which is the difference in intensities between corresponding boundary pixels). Our algorithm produces accurate semi-dense disparity maps, leaving featureless regions in the scene unmatched. It is robust, requires little parameter tuning, can handle brightnessdifferences between images, nonlinear errors, and is fast (linear complexity).  相似文献   

19.
目的 从视差图反映影像景物深度变化并与LiDAR系统距离量测信息"同源"这一认识出发,提出一种基于视差互信息的立体航空影像与LiDAR点云自动配准方法.方法 本文方法分为3个阶段:第一、通过半全局匹配SGM(semi-gdabal matching)生成立体航空影像密集视差图;第二、利用航空影像内参数及初始配准参数(外方位元素)对LiDAR点云进行"针孔"透视成像,生成与待配准的立体航空影像空间分辨率、几何形变相接近且具有相同幅面大小的模拟灰度影像-LiDAR深度影像,以互信息作为相似性测度依据估计航空影像视差图与LiDAR深度影像的几何映射关系,进而以之为基础实现LiDAR点云影像概略相关;第三、以LiDAR点云影像概略相关获得的近似同名像点为观测值,以视差互信息为权重,实施摄影测量空间后方交会计算获得优化的影像外方位元素,生成新的LiDAR深度影像并重复上述过程,直至满足给定的迭代计算条件.结果 选取重叠度约60%、幅面大小7 216×5 428像素、空间分辨率约0.5 m的立体航空像对与平均点间距约1.5 m、水平精度约25 cm的LiDAR"点云"进行空间配准实验,配准精度接近1个像素.结论 实验结果表明,本文方法自动化程度高且配准精度适中,理论上适用于不同场景类型、相机内参数已知立体航空影像,具有良好的应用价值.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号