首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 109 毫秒
1.
一种利用动态规划和左右一致性的立体匹配算法   总被引:1,自引:0,他引:1       下载免费PDF全文
立体匹配是计算机视觉领域研究的一个重要课题,为了得到准确、稠密的视差图,提出了一种利用动态规划和左右一致性的立体匹配算法。该算法首先分别以左、右图像为基元图像,计算各自的视差空间图像,在视差空间图像上利用动态规划,计算得到左视差图和右视差图;然后通过使用左右视差图之间的一致性关系,消除误匹配点,得到较为准确的部分视差图;最后利用视差图的顺序约束关系,给出未匹配视差点的搜索空间计算方法,并利用一种简单有效的方法来计算这些点的视差值。在一些标准立体图像对上所做的实验结果表明,该算法效果良好。  相似文献   

2.
陈佳坤  罗谦  曾玉林 《微机发展》2011,(10):63-65,69
立体匹配有着广泛的应用前景,是计算机视觉领域的研究热点。立体匹配是立体视觉中最为关键和困难的一步,它的目标是计算标识匹配像素位置的视差图。文中提出的立体匹配算法基于置信传播(Belief Propagation,BP)。左图像首先经过非均匀采样,得到一个内容自适应的网格近似表示。算法的关键是使用基于置信传播的立体匹配算法,匹配稀疏的左图像和右图像得到稀疏视差图。通过左图像得到网格,稀疏视差图可以经过简单的插值得到稠密视差图。实验结果表明,该方法与现有稀疏立体匹配技术相比在视差图质量上平均有40%的提高。  相似文献   

3.
鞠芹  安平  张倩  吴妍菲  张兆杨 《计算机工程》2010,36(14):174-176
提出一种深度获取方法,利用基于颜色分割的多目立体匹配算法,从多个视点图像中提取深度信息。利用mean-shift算法,根据颜色信息分割参考图像,提取图像中的颜色一致性区域,通过局部窗口匹配算法进行多目立体匹配得到多幅初始视差图,根据融合准则将多幅视差图合成为一幅视差图以提高视差图的精度并对视差图进行优化后处理,按照视差与深度的关系,将视差图转化为深度图。该算法能有效处理匹配过程中的遮挡区域,提高匹配精度和视差图的准确度。  相似文献   

4.
储珺  龚文  缪君  张桂梅 《自动化学报》2015,41(11):1941-1950
传统的动态规划立体匹配算法能有效保证匹配精度的同时提高运行速度, 但得到的视差深度图会出现明显的条纹现象,同时在图像弱纹理区域以及边缘存在较高的误匹配. 针对该问题,提出了一种新的基于线性滤波的树形结构动态规划立体匹配算法. 算法首先运用改进的结合颜色和梯度信息参数可调的自适应测度函数构建左右图像的匹配代价, 然后以左图像为引导图对构建的匹配代价进行滤波; 再运用行列双向树形结构的动态规划算法进行视差全局优化, 最后进行视差求精得到最终的视差图.理论分析和实验结果都表明, 本文的算法能有效地改善动态规划算法的条纹现象以及弱纹理区域和边缘存在的误匹配.  相似文献   

5.
一种新的用于立体图像编码的视差估计算法   总被引:1,自引:0,他引:1  
韩军功  卢朝阳 《计算机学报》2003,26(12):1717-1721
视差估计是立体视觉和立体图像编码领域的研究重点,其估计的准确程度直接影响编码的精度和效率.该文在研究传统估计算法的基础上,提出了一种新的带极线约束的DT基立体图像视差估计算法.该算法首先把立体图像中的左图像作为参考图像,用DT网格进行描述.然后,利用极线约束条件在右图像中估计出各三角形顶点的对应点,整个估计过程要求DT结构保持不变.通过估计出来的对应点计算出这些顶点的视差矢量,再用六参数仿射变换估计出三角形内部各点的视差矢量.编码时,只需编码各顶点的视差矢量.从实验结果看,这种新算法同传统的“块”匹配视差估计算法相比,视差矢量的估计更加准确,视差图中主要物体的轮廓更加清晰,有利于进一步的物体分割.  相似文献   

6.
传统基于像素的立体匹配算法误匹配率较高.为解决该问题,提出一种基于图像区域分割和置信传播的匹配算法.采用均值偏移对参考图像进行区域分割,通过自适应权值匹配计算初始视差图,对各分割区域的初始视差用平面模型拟合得到视差平面参数,使用基于区域的改进置信传播算法求得各区域的最优视差平面,从而得到最终视差图.与全局优化的经典置信传播算法和图割算法的对比实验结果表明,该算法能降低低纹理区域和遮挡区域的误匹配率.  相似文献   

7.
一种快速立体视觉边缘匹配算法   总被引:2,自引:0,他引:2  
提出了一种立体视觉边缘匹配快速算法。通过小波变换,得到了图像的边缘和边缘幅角 并定义了边缘幅角约束。由视差梯度的分布密度函数,导出了左图像连续边缘上相邻两点在右图像 中的对应点的坐标间的相互约束关系,从而限定了右图像中匹配点的搜索范围。最后给出了基于视 差梯度约束和边缘幅角约束的快速边缘匹配算法。  相似文献   

8.
目的 基于区域的局部匹配算法是一种简单高效的立体匹配方法.针对局部算法中窗口的抉择问题,提出了基于垂直交叉双向搜索的自适应窗口匹配算法.方法 该算法考虑到局部区域内灰度值与视差值的相关性,通过垂直交叉双向搜索策略自适应地调节窗口的形状和大小,并获得相应掩码窗口;再利用积分图像计算掩码窗口的匹配代价,获取视差图;最后采用米字投票和双边滤波器两个步骤对视差图进行修复.结果 针对不同图像采用提出的自适应窗口算法,得到了适用于各种图像结构的匹配窗口,相较于原始垂直交叉算法的匹配精度提高了约30% (Teddy),同时两步骤视差后处理较好地保持了图像边缘.结论 实验结果表明,该算法改善了规则窗口产生的视差边缘扩充问题,在提高视差精度的同时提高了算法鲁棒性.  相似文献   

9.
利用无人机双目图像实现线目标的测量对输电线路巡检具有重要的意义。为提高无人机双目图像下线目标的测量精度,改进Census立体匹配算法,在代价聚合过程中,首先对聚合窗口中的初始匹配代价进行异常筛选,然后计算聚合代价值进而生成视差图,实验证明改进立体匹配算法,提高图像立体匹配精度,且平均误匹配率为5.79%;在线目标测量方面,针对线目标视差图存在的缺陷,提出一种基于目标识别的线目标视差图优化算法,该算法依据目标识别获取线目标视差图,然后根据四个原则进行优化处理,最后将优化后的线目标视差图用于测量,实验证明采用优化后的线目标视差图测量得到结果要优于直接采用视差图得到测量结果。  相似文献   

10.
文斌  朱晗 《计算机工程》2021,47(4):268-276
为解决现有立体匹配算法对低纹理以及视差不连续区域匹配效果较差的问题,提出一种改进的立体匹配优化算法。在传统自适应权重算法匹配代价的基础上,融合高斯差分图像差分信息,即左右图像高斯差分图的差分,重新定义其初始匹配代价,增加算法在视差不连续区域的鲁棒性,并加入边缘约束和视差边缘约束迭代聚类以及基于高斯差分图的自适应窗口算法,保证改进算法在低纹理区域的匹配性能,消除坏点与视差空洞。将该算法与传统自适应权重匹配算法分别在Middlebury数据集上进行匹配实验,结果表明,该算法平均性能提升了15.05%,明显优于传统自适应权重匹配算法。  相似文献   

11.
本文讨论了一种基于亮度对立体图对左右图象的视差进行估计的方法。  相似文献   

12.
目的 双目测距对水面无人艇自主避障以及视觉侦察具有重要意义,但视觉传感器成像易受光照环境及运动模糊等因素的影响,基于经典Census变换的立体匹配代价计算方法耗时长,且视差获取精度差,影响测距精度。为了提高测距精度并保证算法运行速度,提出一种用于双目测距的快速立体匹配算法。方法 基于传统Census变换,提出一种新的比特串生成方法,在匹配点正方形支持窗口的各边等距各选3个像素点,共选出8个像素点,这8个像素点两两比较生成一个字节的比特串。将左右视场中的匹配点与待匹配点的比特串进行异或,得到两点的汉明距离,在各汉明距离中找到距离最小的像素点作为匹配像素点,两像素点的横坐标差为视差。本文采用区域视差计算的方法,在左右视场确定同一目标区域后进行视差提取和滤波,利用平均视差计算目标的距离。结果 本文算法与基于传统Census变换的立体匹配视差获取方法相比,在运算速度方面优势明显,时间稳定在0.4 s左右,用时仅为传统Census变换算法的1/5。在Middlebury数据集中的图像对teddy和cones上进行的算法运行时间对比实验中,本文基于Census变换改进的算法比已有的基于Census变换的匹配算法在运行时间上快了近20 s。在实际双目测距实验中,采用本文算法在1019 m范围内测距误差在5%以内,根据无人艇的运动特点和避障要求,通过分析可知该算法的测距精度可以满足低速无人艇的避障需求。结论 本文给出的基于改进Census变换的匹配算法在立体匹配速度上有大幅提高,提取目标视差用于测距,实际测距结果表明,本文算法能够满足水面无人艇的视觉避障要求。  相似文献   

13.
赵亮亮 《计算机仿真》2010,27(3):220-223
提出了一种有效提高立体匹配中遮挡和低纹理区域匹配精度的方法,算法充分利用立体视觉中的全局约束条件,对不同区域采用不同的约束条件和强度来获得高可靠性点的视差,并且引入左右视线的概念,用于解决复杂场景情况下的左右视图的匹配问题。同时采用改进的协同算法(cooperative algorithm,CA),在视差梯度的约束下,对高可靠性点的视差进行逐步地扩散,最终得到致密的视差图。实验仿真表明,方法可以有效地提高遮挡和低纹理区域中的匹配精度,从而产生较精确的致密视差图。  相似文献   

14.
生成体视动画的一种新方法   总被引:8,自引:0,他引:8  
使用传统方法制作一幅体视画面很容易,但是要快速生成体视动画就比较困难。该文介绍了体视动画的观察方法,并针对流行动画软件中摄像机数据的特点,提出了在计算机上自动生成体视劝画的算法。最后给出了发动机装配过程动态模拟体视动画中的一帧左、右图像及合成后的图像。  相似文献   

15.
针对在立体匹配中弱纹理及纯色区域匹配不准确和图像分割算法耗时较多的问题,提出一种融合图像分割的立体匹配算法。首先,将初始图像进行高斯滤波和Sobel平滑的处理,获取图像的边缘特征图;然后,将原图的红、绿、蓝三个通道值采用最大类间方差法进行二分类,再融合得到分割模板图;最后,将所得到的灰度图、边缘特征图和分割模板图用于视差计算和视差优化的过程,计算得到视差图。相比绝对差值和(SAD)算法,所提算法在精度上平均提升了14.23个百分点,时间开销上平均每万个像素点只多消耗了7.16 ms。实验结果表明,该算法在纯色及弱纹理区域和视差不连续区域取得了更加平滑的匹配结果,在图像分割上能够自动计算阈值且能够较快地对图像进行分割。  相似文献   

16.
目的 行人感知是自动驾驶中必不可少的一项内容,是行车安全的保障。传统激光雷达和单目视觉组合的行人感知模式,设备硬件成本高且多源数据匹配易导致误差产生。对此,本文结合双目机器视觉技术与深度学习图像识别技术,实现对公共路权环境下路侧行人的自动感知与精准定位。方法 利用双目道路智能感知系统采集道路前景图像构建4种交通环境下的行人识别模型训练库;采用RetinaNet深度学习模型进行目标行人自动识别;通过半全局块匹配(semi-global block matching,SGBM)算法实现行人道路前景图像对的视差值计算;通过计算得出的视差图分别统计U-V方向的视差值,提出结合行人识别模型和U-V视差的测距算法,实现目标行人的坐标定位。结果 实验统计2.5 km连续测试路段的行人识别结果,对比人工统计结果,本文算法的召回率为96.27%。与YOLOv3(you only look once)和Tiny-YOLOv3方法在4种交通路况下进行比较,平均F值为96.42%,比YOLOv3和Tiny-YOLOv3分别提高0.9%和3.03%;同时,实验利用标定块在室内分别拍摄3 m、4 m和5 m不同距离的20对双目图像,验证测距算法,计算标准偏差皆小于0.01。结论 本文提出的结合RetinaNet目标识别模型与改进U-V视差算法能够实现对道路行人的检测,可以为自动驾驶的安全保障提供技术支持,具有一定的应用价值。  相似文献   

17.
对国内现有的车辆探测方法进行了大量的研究,提出了一种基于立体机器视觉的前方车辆探测方法;首先根据道路边界确定车辆的大概位置Vehicle_AOI,然后进行图象增强,灰度拉伸——二值化——Robert算子边缘检测——二值化;对上一步的结果进行边界链码跟踪,这一步的结果成功地获得了车辆边缘的链码chain,进一步抑制了车辆周围的图像信息,得到了车辆的下半部分的精确边界;最后以边界确定的区域为模板进行区域匹配,此算法是对区域匹配相关跟踪方法的一种改进,该算法能快速有效的实现匹配,匹配后求出左右两幅图象的视差,在此基础上求出前方车距;再采用平均法确定距离,以消除误差的影响.  相似文献   

18.
立体匹配是双目视觉的一个重要分支领域,能够通过深度图还原出三维信息,但由于其计算量庞大,实时性难以得到保障。为此,提出了一种基于强相似点的快速立体匹配算法。首先,将双目图像通过对极处理,使匹配区域固定在同一水平线上,减少匹配区域;其次,对图像进行灰度转化,并将搜索范围内与待匹配点灰度值接近的点定义为强相似点,对强相似点所在块进行匹配代价计算,并得出该点最优视差,对不存在强相似点的待匹配点进行正常视差计算;最后将进行视差修正与滤波,得到最终视差图。经Middlebury算法测试平台的提供数据进行验证,结果表明在不损失精确率的前提下,该方法相对于SAD速度提高70%左右,为立体匹配算法的实际应用奠定了良好基础,在视觉导航、障碍物检测方面也有着良好的应用前景。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号