首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 122 毫秒
1.
针对区域立体匹配算法中匹配窗口的选择和在图像中视差不连续、弱纹理区域误匹配率较高的难题,提出了一种自适应窗口和半全局算法相结合的立体匹配算法.该算法先通过基于灰度的自适应窗口算法计算初始匹配代价,然后利用相邻像素之间的视差梯度作为约束,采用半全局立体匹配算法以得出视差图.最后对左右视差图进行左右一致性遮挡检测,获得精确的稠密视差图.针对不同的图像信息采用自适应窗口和半全局算法相结合的立体匹配算法,剔除、修正了视差不连续、弱纹理区域的误匹配点,得到匹配效果较好的视差图.实验结果表明:该算法有效降低了视差图在视差不连续、弱纹理区域和遮挡处的误匹配率.  相似文献   

2.
针对传统的局部立体匹配算法通常采用基于窗口聚合匹配的方法获得视差图,采用分割与平面拟合的方法进行视差精炼,算法性能过度依赖于窗口尺寸、分割与数据拟合的精度的问题,提出了基于双边滤波的双权重聚合方法,利用快速匹配代价的方法进行聚合,在视差精炼阶段采用双曲线平滑聚合匹配代价的策略;这种不依赖于窗口大小的算法有利于提高匹配精度。仿真实验结果表明,本文算法在低纹理区域和深度不连续区域均得到了较高的立体匹配精度;针对实际场景进行的立体匹配,可以得到较高精度的视差图及三维重建效果。  相似文献   

3.
针对局部立体匹配算法在弱纹理区域匹配准确度低的问题,提出一种在代价初始化和代价聚合两阶段自适应优化的立体匹配算法。首先,在代价初始化阶段,通过双阈值线性约束条件构造像素点的十字支撑窗口,并依据十字支撑最短臂长构造自适应函数融合AD及Census特征测度;其次,在代价聚合阶段,利用十字支撑水平扩展及形态学处理的方法构造自适应滤波窗口,并通过区域滤波实现代价聚合;最后,通过视差选择及视差优化得到最终的视差图像。Middlebury平台测试结果表明:该算法与传统的AD-Census融合立体匹配算法相比,图像集的整体匹配误差减小了3.95%,在非遮挡区域的匹配误差减小2.17%;与传统区域滤波立体匹配算法相比,该算法在弱纹理区域可以取得更好的立体匹配效果。  相似文献   

4.
针对虚拟视图绘制技术中空洞和伪边缘等问题,提出了一种新的立体匹配算法以获得稠密视差图完成虚拟视点合成.此方法只需要两张视图,对其采用Mean shift算法就可以进行视图分割.有效的虚拟视点绘制是基于良好的视差图与好的视图插值法实现的.通过权值多窗口立体匹配法获得初始视差图,再利用交叉检验法对不可信匹配点和闭塞遮挡区域进行滤除,很好地解决了视差图中遮挡区域引起的误匹配问题.最后,对获得的稠密视差图进行视图插值和相应的噪声滤除完成了多点位置的虚拟视图绘制.针对Middlebury dataset提供的"Tsukuba"等测试图像进行相关实验,实验结果表明,该算法具有良好的视图绘制效果.  相似文献   

5.
提出一种基于图像分割和可变窗的联合立体匹配算法。首先对参考图像和目标图像进行图像分割,根据视差在同一色彩分割区域平滑的假设,计算出分割区域的匹配代价;然后由窗口内的匹配误差均值、误差方差、偏向误差确定最佳可变窗并求出其匹配代价;最后综合两类匹配代价通过局部优化方法获得稠密视差图。实验结果表明,该算法能够较好的处理低纹理和深度不连续区域,得到较高匹配精度的同时降低了匹配时间。  相似文献   

6.
传统基于分割的立体匹配算法所采用的局部匹配方法误匹配率较高,同时平面拟合也具有一定的局限性。为了获得高准确率的视差图,本文将改进的局部匹配方法与全局匹配相结合,来获取初始视差图;同时利用曲面拟合的方法对各分割区域进行处理,并在区域合并中提出了新的判决准则。仿真实验结果表明,本文算法能够获得较高精度的视差图,实现了各纹理区域之间的平滑过渡,同时,在低纹理区域和被遮挡区域也取得了比较理想的效果。  相似文献   

7.
针对传统的Census立体匹配算法对噪声敏感,在视差不连续区域容易出现误匹配的问题,提出了一种基于邻域信息约束与自适应窗口的立体匹配算法.首先,针对传统Census算法对中心像素依赖高的问题,采用邻域十字窗口的加权平均和的方式对中心像素进行赋值.然后,通过设置自适应阈值,将支持窗口的邻域像素与中心像素进行相似性的二次代价计算并与初始代价进行融合,对匹配结果进行进一步约束.在代价聚合阶段,采用颜色阈值不断变化的三约束法进行窗口的构建,并在聚合过程中引入噪声剔除策略.最后,在视差精化阶段采用左右一致性检测与区域投票相结合的方法对视差图进一步优化.使用Middlebury测试平台的标准立体图像进行实验,结果表明:该方法能够有效降低图像对高斯噪声的敏感性,并在误匹配率上低于多种立体匹配算法.  相似文献   

8.
针对基于滤波器的立体匹配算法精度不高以及易受外界环境影响的问题,提出基于改进导向滤波器的立体匹配算法.在传统梯度向量中加入经过预处理后图像的梯度信息,结合Census变换计算匹配代价.构建自适应窗口,采用改进的导向滤波器聚合匹配代价;经过视差处理获得高精度的视差图,在低纹理区域能取得较好的匹配结果.实验结果表明,相比其他基于滤波器的立体匹配算法,该算法在Middlebury和KITTI平台上的测试结果具有更高的精度;对光照失真条件具有更好的鲁棒性,能应用于室外场合;计算复杂度与匹配窗口大小无关,具有较好的实时性.  相似文献   

9.
为了提高传统置信传播立体匹配算法在深度不连续区域的准确率问题,该文提出一种融合局部自适应权重和置信传播的立体匹配算法。该方法采用改进的局部自适应权重算法,获得初始视差估计,通过左右一致性检测出不可信象素点;对分割后的图像,采用新的消息传播策略,进行消息的不对称传递。实验结果表明,该算法对深度不连续和弱纹理区域均有较好的匹配结果,能获得比较理想的视差图。  相似文献   

10.
立体匹配是根据两幅或者多幅具有一定视差的图像,获得图像之间视差图的过程.针对自适应权重立体匹配算法难以同时满足精度和速度的不足,提出一种符合人眼视觉特性的改进自适应权重稀疏区域立体匹配算法.首先对权重公式进行改进,改进后根据公式计算每个点的权重,其次对图像进行稀疏的区域匹配获得稠密视差图,然后将所得视差图进行左右一致性检测及遮挡填充,最后对视差图进行中值滤波,以去除孤立的误匹配点和噪声点.实验结果表明,改进方法比Yoon的自适应权重算法匹配效率提高了90多倍,比SSD精度提高了12.34%,能够快速的获得精确的视差图,满足系统对实用性的要求.  相似文献   

11.
为快速而准确地得到稠密视差图,提出了一种基于限制搜索空间的动态规划立体匹配算法。该算法以动态规划立体匹配方法为基础,通过初始匹配序列限制搜索空间以减少搜索变量个数。同时,提出一种基于自适应权重的多窗口累积策略来提高匹配精度,并在平滑性限制中引入亮度梯度以避免在物体边界的视差不连续处产生过度惩罚。实验结果表明,该匹配算法在匹配速度和匹配精度上都有很大的提高,是一种简单有效的立体匹配算法。  相似文献   

12.
非参数变换和改进动态规划的立体匹配算法   总被引:1,自引:0,他引:1  
针对传统稠密立体匹配方法在非纹理区、深度不连续处和遮挡处存在错误匹配率过高的问题,提出一种基于非参数变换和改进动态规划相结合的立体匹配算法.采用稀疏非参数变换相关方法计算初始局部匹配代价,并利用行列双向约束动态规划算法对匹配代价进行全局优化,在获取初始视差后分别对原始图像每一像素点进行可信性与纹理性检测,最后利用视差平面拟合结果代替非纹理与非可信区域像素点的原始视差,得到稠密视差图.实验表明,该算法具有较高的鲁棒性与匹配精度,尤其在处理图像的非纹理区、深度不连续处和遮挡处,可获得精确的匹配结果.  相似文献   

13.
针对区域匹配算法在灰度变化比较大区域精度不高的问题,提出一种改进的匹配算法.利用Sobel算子计算各像素点的梯度值,根据梯度幅度直方图获得自适应阈值,动态建立支持窗口.改进传统的Census变换,用窗口内所有像素均值代替中心像素进行Census变换,在左右图像中寻找最佳匹配点获得视差图.利用FPGA并行处理和硬件实现的优点,对大数据量实时地进行处理,提高运算效率.实验结果表明:改进的立体匹配算法和硬件结构能够获得精度较高的视差图,处理640×480的图像对只需32.4 ms.  相似文献   

14.
针对局部立体匹配算法在弱纹理或视差不连续区域匹配精度低等问题,提出了一种结合卷积神经网络(CNN)和特征金字塔结构(FPN)的多尺度融合的立体匹配算法。在卷积神经网络的基础上应用了特征金字塔,实现立体图像的多尺度特征提取和融合,提高了图像块的匹配相似度;利用引导图滤波器(guided filtering)快速有效地完成代价聚合,在视差的选择阶段采用改进的动态规划(DP)算法获得初始视差图,对初始视差图精细化得到最后的视差图。所提算法在Middlebury数据集上提供的图像进行训练和测试,结果表明该算法得到的视差图具有较好的效果。  相似文献   

15.
针对计算机视觉领域中立体匹配算法在图像无纹理区产生的误匹配问题,提出以全变差函数为凸约束集,使用次梯度投影法,对通过初始视差变换后的立体图像对之间的像素误差函数和视差二次平滑因子形成的严格凸函数进行求解,寻求立体图像对之间的最优视差图。实验结果表明,该方法不仅能保留初始视差图的边缘,而且减少了由先前立体匹配算法求得的视差图在无纹理区产生的误匹配点,取得了良好的视差图优化效果。  相似文献   

16.
针对双目立体匹配中由于噪声和遮掩的影响产生模糊视差点的问题,提出了一种新的基于difference of gaussian(DoG)的立体匹配算法.该算法在the sumof absolutes(SAD)算法提取初步视差图的基础上,采用DoG算法来分析噪声等对视差图的影响,通过设定阈值筛选出模糊点,最后使用多重视差假定算法修补模糊点.实验证明,在SAD算法的基础上使用该算法可获得较好的匹配效果.  相似文献   

17.
为解决网络深度与训练图像块大小耦合问题及进一步提高弱纹理区域及边缘处的匹配精度,提出了一种基于多尺度注意力网络的立体匹配方法.该方法将立体匹配过程分为2个阶段:第1阶段提出了一种成本网络用于计算匹配成本,该网络由基础网络层和缩放层组成.第2阶段提出了一种基于多尺度注意力的视差求精网络,该视差求精网络综合了多种视差线索,并加入多尺度注意力机制进一步提高立体匹配精度.该方法在KITTI 2012、KITTI 2015和SceneFlow数据集上的3像素坏点百分比分别为1.13%,1.87%和2.29%.实验结果表明,与国内外同类方法相比,采用多尺度注意力网络的立体匹配方法在匹配精度上获得了较大的提升,尤其是在弱纹理区域及物体边缘处表现较好.  相似文献   

18.
针对在立体匹配研究领域中弱纹理区域的匹配问题,文中提出了一种基于区域的实时立体匹配改进算法.采用匹配测度函数像素灰度差的绝对值和(Sum of Absolute Differ-ence,SAD),通过平均误差阈值算法检测出高误差能量;针对遮挡区域造成的不可信视差预测点,进行误差能量计算;利用滤波加速算法减少计算匹配窗口相似性复杂度,既降低了误匹配率,又提高了算法的运行速度.实验结果表明,改进算法的误匹配像素百分比明显减小,且能满足系统对实时性的要求.  相似文献   

19.
双目移动机器人立体匹配算法   总被引:2,自引:0,他引:2  
提出一种基于图像分割和可信点的双目移动机器人立体匹配算法,首先采用纹理检验分割算法对双目移动机器人获得的左右图像进行分割,确定低纹理和纹理相似区域;然后通过SIFT特征匹配点得到可信点视差;其次采用SAD区域匹配加速算法得到初始视差;最后依据SIFT特征匹配点的分布、初始视差和最小距离分类器对图像分割块进行视差处理,同时对于较小的图像分割块进行BLOB滤波处理来获取较高精度的视差图.实验结果表明,本算法能有效解决双目移动机器人周边环境中的低纹理和纹理相似视差精度差的问题,可快速准确识别障碍.  相似文献   

20.
将亮度信息与结构张量结合起来,形成扩展的结构张量,并计算亮度在x和y方向的方向导数,使得图像的局部结构更加突出。用平行型双目摄像机拍摄目标图像,获得目标的深度信息,计算左右图像的标准视差。根据标准视差比较SURF、PCA和扩展结构张量3种特征匹配算法的匹配精度。通过比较可知,扩展结构张量在双目视觉立体匹配中获得匹配点的准确性更高。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号