首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 187 毫秒
1.
针对目前许多局部双目立体匹配方法在缺乏纹理区域、遮挡区域、深度不连续区域匹配精度低的问题,提出了基于多特征表示和超像素优化的立体匹配算法。通过在代价计算步骤中加入边缘信息特征,与图像局部信息代价相融合,增加了在视差计算时边缘区域的辨识度;在代价聚合步骤,基于超像素分割形成的超像素区域,利用米字骨架自适应搜索,得到聚合区域,对初始代价进行聚合;在视差精化步骤利用超像素分割信息,对匹配错误视差进行修正,提高匹配精度。基于Middlebury立体视觉数据集测试平台,与自适应权重AD-Census、FA等方法得出的视差图进行比较,该算法在深度不连续区域和缺乏纹理区域的匹配效果显著改善,提高了立体匹配精度。  相似文献   

2.
传统基于像素的立体匹配算法误匹配率较高.为解决该问题,提出一种基于图像区域分割和置信传播的匹配算法.采用均值偏移对参考图像进行区域分割,通过自适应权值匹配计算初始视差图,对各分割区域的初始视差用平面模型拟合得到视差平面参数,使用基于区域的改进置信传播算法求得各区域的最优视差平面,从而得到最终视差图.与全局优化的经典置信传播算法和图割算法的对比实验结果表明,该算法能降低低纹理区域和遮挡区域的误匹配率.  相似文献   

3.
针对局部立体匹配中存在的弱纹理区域匹配精度较低、斜面等区域容易产生视差阶梯效应等问题,文中提出基于分割导向滤波的视差优化算法,以获得亚像素级高精度匹配视差.首先依据左右一致性准则对立体匹配的初始视差进行误匹配检验及均值滤波修正.然后在修正视差图上确定区域分割导向图,对修正视差进行区域导向滤波优化,获得亚像素级高精度的视差结果.实验表明,文中算法能有效改善斜面等区域的视差不平滑现象,降低初始视差的误匹配率,获得较高精度的稠密视差结果.  相似文献   

4.
余嘉昕  王春媛  韩华  高燕 《计算机工程》2023,(3):257-262+270
现有局部立体匹配算法与全局立体匹配算法相比,计算量更小、速度更快,能达到实时匹配的要求,但存在误匹配率较高、视差结果精度较低等问题。提出一种新的局部立体匹配算法,依据像素梯度信息、像素梯度的平均值及标准差计算多指标梯度代价,使算法对图像局部结构的表达更加全面。根据像素的灰度差异程度划分等级,提出7等级编码的精细化Census变换匹配代价,以有效识别图像信息之间的细微差异,弥补Census变换在相似纹理区域精度较低的不足。将多指标梯度代价和精细化Census变换匹配代价按一定权重进行融合,形成初始匹配代价,从而充分发挥两种代价的优越性。在代价聚合阶段,对引导滤波的线性系数进行自适应优化,解决固定参数引起图像局部过于平滑或平滑不足的问题,并使用优化后的引导滤波模型进行代价聚合,改善代价聚合的效果。使用胜者为王算法计算视差获得初始视差图,最后通过左右一致性检测和加权中值滤波进行视差优化,得到更为理想的视差图。在Middlebury V3立体评估平台上的实验结果表明,所提算法在非遮挡区域的加权平均误匹配率为15.7%,与Cens5、IGF、ISM等算法相比具有较高的精度。  相似文献   

5.
针对立体匹配算法中匹配精度不高的问题,提出一种基于树形滤波的立体匹配算法.利用像素边缘信息自适应改变Census变换窗口,融合颜色、边缘和改进后的Census信息作为匹配代价,对图像进行均值分割,以聚类区域计算树边权重,建立最小生成树,利用树形滤波器进行代价聚合,使用左右一致性检测细化视差,得到精确视差图.实验结果表明,该算法具有更优的匹配精度且生成的视差图具有良好的边缘保持特性,能够较好适应各种复杂场景.  相似文献   

6.
立体匹配通过计算同一场景不同视点下图像的匹配像素的视差,恢复场景的深度信息.文中对传统的基于分割的立体匹配算法进行改进,提出了一种基于双重分割的立体匹配算法.首先对参考图像进行颜色欠分割,使每个区域包含足够的信息进行平面拟合;然后对初始匹配视差图进行分割,检测颜色分割中的欠分割区域并进行再分割,进而对再分割后的区域进行平面拟合;最后利用合作算法对不可信区域优化,以提高匹配算法的运行效率.Middlebury标准图像测试集上的实验结果表明,相对于传统分割算法,该算法时间开销更少、匹配精度更高.  相似文献   

7.
为了减少亚像素立体匹配中存在的错误匹配以及提高匹配精度,提出基于多策略融合的亚像素精度立体匹配方法。通过以下三个步骤实现:原图像插值处理结合基于最小生成树代价聚集策略估计分数视差;给出新的视差搜索范围确定关系,减少匹配代价计算;在大片低纹理区域引入视差平面拟合细化视差,在亚像素精度上平滑,减少错误匹配。实验表明,算法有效地将匹配精度提高到亚像素级,同时减少了错误匹配。  相似文献   

8.
针对局部立体匹配方法中存在的匹配窗口大小选择困难、边缘处视差模糊及弱纹理区域、斜面或曲面匹配精度较低等问题,提出基于CIELAB空间下色度分割的自适应窗选取及多特征融合的局部立体匹配算法.首先,在CIELAB空间上对立体图像对进行色度分割,依据同质区域的分布获取初始匹配支持域,同时估计遮挡区域,更新匹配支持域.然后,基于更新后的匹配支持域,采用自适应权值的线性加权多特征融合匹配方法得到初始视差图.最后,利用左右视差一致性检测方法进行误匹配检验,利用基于分割的均值滤波器进行视差优化及细化,得到稠密匹配视差结果.实验表明文中算法有效,匹配精度较高,尤其在弱纹理区域及斜面等情况下匹配效果较好.  相似文献   

9.
针对半全局立体匹配(semi global matching,SGM)算法对于视差突变的像素给定一个统一的惩罚,会导致边界的模糊以及弱纹理、遮挡区域误匹配的问题,提出加入图像分割的SGM算法。该算法首先在代价计算过程中采用灰度绝对差(absolute difference,AD)变换,保证实时性;然后在代价聚合部分采用改进的SGM算法,使算法具有较强的鲁棒性及较高精确度的同时,降低了在弱纹理、遮挡区域的误匹配率;在视差选择部分,通过抛物线拟合法得到亚像素级分辨率视差;在视差优化步骤中,利用左右一致性检测对遮挡点进行检测,并在此基础上对无效视差值进行赋值填充;最后使用中值滤波进行优化,确保影像的清晰度和完整性。实验结果表明,该算法可有效降低在弱纹理及遮挡区域的误匹配率,满足立体匹配的需求。  相似文献   

10.
目的 立体匹配是计算机双目视觉的重要研究方向,主要分为全局匹配算法与局部匹配算法两类。传统的局部立体匹配算法计算复杂度低,可以满足实时性的需要,但是未能充分利用图像的边缘纹理信息,因此在非遮挡、视差不连续区域的匹配精度欠佳。为此,提出了融合边缘保持与改进代价聚合的立体匹配。方法 首先利用图像的边缘空间信息构建权重矩阵,与灰度差绝对值和梯度代价进行加权融合,形成新的代价计算方式,同时将边缘区域像素点的权重信息与引导滤波的正则化项相结合,并在多分辨率尺度的框架下进行代价聚合。所得结果经过视差计算,得到初始视差图,再通过左右一致性检测、加权中值滤波等视差优化步骤获得最终的视差图。结果 在Middlebury立体匹配平台上进行实验,结果表明,融合边缘权重信息对边缘处像素点的代价量进行了更加有效地区分,能够提升算法在各区域的匹配精度。其中,未加入视差优化步骤的21组扩展图像对的平均误匹配率较改进前减少3.48%,峰值信噪比提升3.57 dB,在标准4幅图中venus上经过视差优化后非遮挡区域的误匹配率仅为0.18%。结论 融合边缘保持的多尺度立体匹配算法有效提升了图像在边缘纹理处的匹配精度,进一步降低了非遮挡区域与视差不连续区域的误匹配率。  相似文献   

11.
针对基于最小生成树的非局部算法在无纹理以及边缘区域出现误匹配的问题,提出了一种改进代价计算和颜色与边缘融合的非局部立体匹配算法。首先重新构造了基于颜色-梯度的代价计算函数,以提高无纹理区域像素对代价聚合的贡献率;其次利用颜色与边缘信息进行融合来构造自适应边权函数,并利用该权重构建树结构进行代价聚合;最后通过视差计算和非局部视差优化得到最终的视差图。在Middlebury数据集上进行了测试,实验结果表明,提出的算法在无纹理及边缘区域都取得了良好的匹配效果,有效地改善了视差。  相似文献   

12.
一种沿区域边界的动态规划立体匹配算法   总被引:2,自引:0,他引:2  
提出一种基于图像区域分割的立体匹配算法.与通常的沿扫描行进行动态规划的立体匹配算法不同,该算法以图像"区域"为基元计算视差.首先使用相关法得到初始视差,然后利用一种区域边界上的多种子动态规划算法对视差进行精细计算,最终通过插值得到整个图像的稠密视差.实验结果表明,此算法速度较快、可靠性较高.  相似文献   

13.
针对当前立体匹配算法存在的匹配准确率低,难以达到实用的高精度水平的问题,提出了一种基于改良的Census变换与色彩信息和梯度测度相结合的多特性立体匹配算法,实现高精度的双目立体匹配。算法首先在初始代价匹配阶段,将改进的Census变换、色彩和梯度测度赋权求和得出可靠的初始匹配代价;在聚合阶段,采取高效快捷的最小生成树聚合,获得匹配代价矩阵;最后根据胜者为王法则得到初始视差图,并引入左右一致性检测等策略优化视差图,获得高精度的视差图,实验阶段对源自Middlebury上的标准测试图进行测试验证,实验结果表明,经本文算法处理得到的15组测试数据集的视差图在非遮挡区域的平均误匹配率为6.81%,算法实时响应性优良。  相似文献   

14.
传统的最小生成树立体匹配算法对低纹理区域和遮挡区域不敏感,虽然最小生成树立体匹配算法后处理的中值滤波能够消除噪点,但是不能够消除边缘模糊。本文提出一种改进算法来克服这些局限性。首先,由于最小生成树匹配成本区分度不够高,研究并提出新最小生成树的匹配成本,使其可以减小不敏感区域的误匹配。其次,在后处理中使用加权中值滤波,以改善深度图像边缘。实验结果表明,在最小生成树立体匹配算法中使用改进匹配成本算法和加权中值滤波算法,在Middlebury数据集中平均误匹配率达到6.9%,本文算法在Middlebury和KITTI场景中都优于最小生成树立体匹配算法。  相似文献   

15.
基于区域间协同优化的立体匹配算法   总被引:2,自引:0,他引:2  
提出了一种基于分割区域间协同优化的立体匹配算法. 该算法以图像区域为匹配基元, 利用区域的彩色特征以及相邻区域间应满足的平滑和遮挡关系定义了区域的匹配能量函数, 并引入区域之间的合作竞争机制, 通过协同优化使所定义的匹配能量极小化, 从而得到比较理想的视差结果. 算法首先对参考图像进行分割, 利用相关法得到各分割区域的初始匹配; 然后用平面模型对各区域的视差进行拟合, 得到各区域的视差平面参数; 最后, 基于协同优化的思想, 采用局部优化的方法对各区域的视差平面参数进行迭代优化, 直至得到比较合理的视差图为止. 采用Middlebury test set进行的实验结果表明, 该方法在性能上可以和目前最好的立体匹配算法相媲美, 得到的视差结果接近于真实视差.  相似文献   

16.
作为双目三维重建中的关键步骤,双目立体匹配算法完成了从平面视觉到立体视觉的转化.但如何平衡双目立体匹配算法的运行速度和精度仍然是一个棘手的问题.本文针对现有的局部立体匹配算法在弱纹理、深度不连续等特定区域匹配精度低的问题,并同时考虑到算法实时性,提出了一种改进的跨多尺度引导滤波的立体匹配算法.首先融合AD和Census变换两种代价计算方法,然后采用基于跨尺度的引导滤波进行代价聚合,在进行视差计算时通过制定一个判断准则判断图像中每一个像素点的最小聚合代价对应的视差值是否可靠,当判断对应的视差值不可靠时,对像素点构建基于梯度相似性的自适应窗口,并基于自适应窗口修正该像素点对应的视差值.最后通过视差精化得到最终的视差图.在Middlebury测试平台上对标准立体图像对的实验结果表明,与传统基于引导滤波器的立体匹配算法相比具有更高的精度.  相似文献   

17.
针对立体匹配算法中,census变换在弱纹理区域具有较好效果,但忽略了图像的灰度信息,造成在重复纹理区域匹配效果不理想,提出了一种改进的census变换。在初始匹配代价阶段,设计了一种在census变换的基础上融合互信息和梯度信息的相似性测度算法。在代价聚合阶段,采用自适应权重引导滤波聚合策略。最后,通过视差计算、视差优化得到最终的视差图。在VS2015软件平台上对Middlebury网站上提供的标准测试图进行实验,实验结果表明,所提算法能够得到较为准确的视差图,平均误匹配率为5.29%,可以满足三维重构的需要。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号