首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
针对基于Census变换的立体匹配算法匹配精度不理想、易受噪声干扰的问题,提出一种自适应窗口结合改进Census变换的方法。通过自适应选择变换窗口大小,并在Census变换中引入噪声容限参数,且将其改进Census代价与RGB颜色差值代价加权融合,再采用四路径代价聚合策略完成初始代价聚合,最后用WTA算法计算初始视差后通过后处理优化得到最终视差。实验结果表明所提算法误匹配率较低,抗噪性能有较好提升。  相似文献   

2.
针对传统Census变换在匹配代价计算中易受噪声影响、匹配精度较低的问题,提出一种引入噪声容限的四状态Census变换算法。在匹配代价计算中,首先将改进的Census匹配代价与灰度绝对差值和梯度代价进行融合,并加入相应的截断阈值,以提高初始匹配代价空间的可靠性。然后通过引导图滤波进行代价聚合,并采用赢家通吃策略计算初始视差值。最后通过左右一致性检验、视差填充和加权中值滤波来优化初始视差值,得到最终视差图。实验结果表明,所提算法的噪声鲁棒性优于传统Census变换算法,且立体匹配算法的整体误匹配率降低至5.59%。  相似文献   

3.
张健覃翠 《电子器件》2023,46(1):109-114
双目视觉技术是重要的立体成像技术之一,该技术的核心是计算匹配像素点之间的视差值,而这种计算依赖于代价函数的设计。其中Absolute Difference Census(AD-Census)函数作为代价函数是常用的方法,但该方法受权重系数的影响较大。为了有效提高AD-Census函数的匹配精度,提出向AD-Census函数中添加截断参数以改进其匹配效果,保证了代价聚合时像素的绝对值和梯度不会出现因其中一个值较大,而导致另一个值的影响被忽略的情况出现,从而提高匹配精度,与传统的AD-Census函数相比失配率可以降低6%以上。  相似文献   

4.
传统的基于全局优化的立体匹配算法计算复杂度较高,在遮挡和视差不连续区域具有较差的匹配精度。提出了基于Tao 立体匹配框架的全局优化算法。首先采用高效的局部算法获取初始匹配视差;然后对得到的视差值进行可信度检测,利用可信像素点和视差平面假设使用具有鲁棒性的低复杂度算法修正不可信任像素视差值;最后改进置信度传播算法,使其能够自适应地停止收敛节点的消息传播,并对经修正的初始匹配进行优化,提高弱纹理区域匹配准确度。实验结果表明,文中算法有效地降低整体误匹配率,改善了视差不连续及遮挡区域的匹配精度;同时,降低了算法整体复杂度,兼顾了速度,具有一定的实用性。  相似文献   

5.
为了提升局部立体匹配的精度,提出了一种基于改进Census变换和自适应支持域的立体匹配算法.针对传统Census变换算法对中心点处的采样敏感、误匹配率高的问题,结合中心点左右插值点的信息,提出了一种对采样不敏感的改进Census变换算法.在计算匹配代价阶段,将改进Census变换与彩色信息及x、y方向的梯度信息相融合以...  相似文献   

6.
基于改进Census变换的局部立体匹配算法   总被引:1,自引:0,他引:1  
针对基于传统Census变换的立体匹配算法鲁棒性差和精度不高的问题,提出一种基于改进Census变换的自适应权重立体匹配算法.首先,用Census变换窗口中邻域像素的中值来替换中心像素的灰度值,克服了邻域像素对中心像素的依赖;然后用自适应权重的方法分别计算匹配代价和进行立体匹配,得到初始视差;最后通过左右一致性校验和亚像素提精的方法得到稠密的视差图.实验结果表明,该算法有很强的鲁棒性和很高的匹配精度.  相似文献   

7.
针对现有立体匹配算法复杂、耗时较长的特点,提出了一种基于加权匹配代价和色彩分割的立体匹配算法。算法引入一种基于梯度差算子与绝对差算子加权的匹配代价计算初始视差。根据基于色彩分割的视差假设,采用Mean-Shift算子对图像进行分割,用分割后的图像作为模板优化初始视差。实验结果表明,该算法提高匹配精度和速度,具有良好的实用价值。  相似文献   

8.
双目立体匹配根据视差原理将平面视觉转化到三维立体视觉,是三维重建的核心步骤之一.针对局部立体匹配算法在深度不连续、弱纹理区域匹配精度低且易受光照、噪声等因素干扰的问题,提出了一种改进的立体匹配算法.首先,在代价计算阶段将改进的Census代价与梯度代价进行融合,并采用引导滤波算法对图像进行多尺度代价聚合;然后,采用赢家...  相似文献   

9.
双目视觉通过模拟人的双眼来估计物体的深度,从而还原出物体的三维信息.作为双目视觉中最重要的步骤,立体匹配算法精度影响深度信息的还原.为了提高算法的匹配正确率,基于原始算法,提出了一种改进的半全局匹配算法,通过对匹配代价进行改进,将像素的AD代价与改进的Census代价进行融合,并在多个路径上对匹配代价进行代价聚合,最后...  相似文献   

10.
针对立体匹配中的视差优化问题,提出一种自适应权重MRF的立体匹配视差优化算法。首先使用局部算法生成初始视差图;然后在马尔科夫随机算法框架下,对视差不连续区域和平滑区域自适应调整平滑项权重来实现视差图的优化.本文的关键技术是不同区域平滑项权重的设计,其中不连续区域利用颜色相关系数、视差相关系数以及视差图与同场景彩色图的结构相似性来构建平滑项权重;而平滑区域则直接利用视差信息来构建平滑项权重,同时,根据领域内视差平滑程度自适应调整权重中参数.通过在立体匹配评估平台Middlebury上的测试实验表明,所提算法可获得更优的主观效果和客观指标,优化后的视差图在边缘区域和视差不连续区域能够保持清晰的视差图.  相似文献   

11.
针对在立体匹配过程中的低纹理和视差不连续的问题,提出了一种基于图像分割的立体匹配算法。首先采用Mean-Shift算法对彩色图像进行图像分割,并认为分割区域块内的像素视差是平滑的,然后采用较大窗口匹配方法,提取左右彩色图像相似像素点作为种子点,根据区域内的平滑约束条件,利用小窗口匹配方法将种子点向周围区域扩散,最终得到稠密视差图。实验结果表明该算法相比传统的自适应匹配算法,视差不连续区域匹配误差降低10%左右。  相似文献   

12.
双目视觉中立体匹配算法的研究与比较   总被引:1,自引:0,他引:1  
在基于双目立体视觉三维重建的研究中,立体匹配是其中最重要的部分,它的准确性影响着最后的重建结果.本文主要讲述了常用的立体匹配算法,并详细介绍了两种算法分类中的代表性算法的实现步骤,即局域算法中的基于特征点匹配的算法和全局算法中的基于图割法的匹配算法,并对算法从运算速度和误配率两方面进行了比较,总结了两种算法的优缺点,比...  相似文献   

13.
基于对数极坐标变换的图像匹配算法   总被引:1,自引:0,他引:1  
相位相关算法通常只具有平移不变性,而不具有尺度和旋转不变性,因此无法对存在尺度和旋转变化的图像进行图像匹配.而对数极坐标变换可以将图像在笛卡儿坐标系下的尺度和旋转变化变换为沿对数极坐标系的平移运动,具有较好的尺度和旋转不变性.文中提出了一种基于图像对数极坐标变换的相关匹配算法.仿真结果表明基于对数极坐标变换的相位相关算法可以针对具有尺度和旋转变换的图像进行很好的匹配,并能检测出图像的旋转角度及尺度参数.  相似文献   

14.
根据多波束声纳地形匹配导航中不同阶段对匹配性能的不同要求,提出了基于径向投影变换的快速地形匹配方法。基于径向投影变换的快速地形匹配方法利用图像径向投影变换将图像变成一维曲线,然后采用相位相关法搜索图像的匹配位置和旋转角度,由于径向投影变换将二维图像变换为一维曲线进行匹配,因此大大提高了匹配速度。  相似文献   

15.
立体图像的视差很大程度上决定了立体图像的视觉舒适度,本文从定量的 角度对影响立体图 像舒适度的视差范围进行了研究。首先对源立体图像采用像素平移方法得到测试立体图像集 ,通过大量的 主观实验得到测试立体图像的舒适度平均意见得分(MOS,mean o pinion score)值;其次,基于视觉显著性特点,采用自适应权重立体匹配方 法计算各区域的视差值,以测试各区域视差值对整幅立体图像舒适度的影响程度;最后通过 转换公式将舒 适立体图像的视差范围转换为视差角形式,以便将本文方法推广到其他类型的显示设备。实 验结果表明, 在实验所用显示设备中,满足舒适要求的像素平移量为-40~90(左 移40pixels至右移90pixels);当 立体图像中心显 著区域的水平视差在-0.3882°~0.851范围内时, 其舒适度在可接受范围内,而视差范 围为-0.2713°~0.781时舒适度达到最佳;最后将本文方法推广到常用显示设备,并给出了常用显示设 备的舒适视差范围,为立体图像和视频的制作提供了可靠依据。  相似文献   

16.
针对六旋翼无人机双目视觉成像时,经双目融合后反馈的图像噪点过多,以及图像精度不够理想的问题,提出了一种在匹配过程中融入全局差错能量最小化的区域立体视觉匹配算法。由于视差的求解是立体匹配过程中最重要的环节,因此本文利用最小化差错能量矩阵求解最优视差的原理。通过提高立体视觉的视差精度,从而减少视觉融合过程中因数据问题产生的噪声干扰,最终提高了对场景信息三维重构的准确度。通过分别在室内外的仿真实验与真实环境重构实验,验证了本文提出的基于双目视觉的六旋翼无人机立体匹配算法的有效性与可靠性。  相似文献   

17.
A new matching cost computation method based on nonsubsampled contourlet transform (NSCT) for stereo image matching is proposed in this paper. Firstly, stereo image is decomposed into high frequency sub-band images at different scales and along different directions by NSCT. Secondly, by utilizing coefficients in high frequency domain and grayscales in RGB color space, the computation model of weighted matching cost between two pixels is designed based on the gestalt laws. Lastly, two types of experiments are carried out with standard stereopairs in the Middlebury benchmark. One of the experiments is to confirm optimum values of NSCT scale and direction parameters, and the other is to compare proposed matching cost with nine known matching costs. Experimental results show that the optimum values of scale and direction parameters are respectively 2 and 3, and the matching accuracy of the proposed matching cost is twice higher than that of traditional NCC cost.  相似文献   

18.
基于极线校正的亚像素相位立体匹配方法   总被引:6,自引:3,他引:6       下载免费PDF全文
针对双目结构投影光栅相位法三维测量系统中立体匹配的效率与精度问题,提出了基于极线校正的亚像素相位立体匹配方法。首先,通过外极线校正算法将双目立体视觉几何结构校正为平视双目标准几何结构,使匹配点对在左右相机上的成像点位于同一水平线上。然后,采用双线性内插法获取校正后新相位图像对,并提出一种基于相位区域匹配的立体匹配算法,获得初始匹配点。最后,提出采用最小二乘拟合将初始匹配点附近3×3邻域内的相似度量拟合为一个二次曲面,然后求解得到该曲面的局部最小值,得到与待匹配点相位相同的右摄像机匹配点坐标。通过对标准平板平面度进行测量与精度分析,表明该方法能够快速、准确的实现立体匹配。  相似文献   

19.
范莹  白瑞林  王秀平  李新 《激光技术》2016,40(6):814-819
为了解决传统形状上下文直方图相似性计算需遍历轮廓采样点、计算复杂性高、不能满足工业实时性要求的问题,提出了一种改进型形状上下文的工件立体匹配方法。改进匹配搜索策略,引入立体图像对质心的视差约束条件,并利用形状上下文直方图分布信息进行初步筛选,获取候选匹配点集,减少后续匹配计算复杂度;为增加匹配点与非匹配点的区分度,对形状上下文相似性度量进行加权处理;匹配时融合对应轮廓采样点33邻域的梯度方向直方图特征,与形状上下文构成联合相似性度量;最后采用随机抽样一致性算法剔除误匹配点对。对改进算法进行了理论分析,并应用于工件图像进行实验验证,通过实验给出了相应的实验对比。结果表明,改进的方法具有较高的匹配精度和更快的匹配速度,鲁棒性高。  相似文献   

20.
基于运动和视差信息的立体视频质量客观评价   总被引:3,自引:3,他引:0  
在研究人类 立体视觉特性及现有立体图像/视频质量评价算法的基础上,提出了一种基于运动信息和视 差信息的立 体视频质量的客观评价方法。方法包括视频质量评价(VQA)和视频立体感评价(VSSA)两个指 标,其中VQA的估计基于梯度的结构相似度(GSSIM) 算法,并充分考虑了帧内的亮度信息和结构信息、帧间运动信息以及人眼的感知特性对视频 质量的影响, 特别是根据人类的视觉特性,对左右视点的质量赋予了不同的权重;VSSA的估计 是通过计算参考 视频的绝对差值图和降质视频的绝对差值图之间的峰值信噪比(PSNR)而得到。实验结果表明,本文方法对基于H.264 编码的失真视频的评价结果与主观测试有较高的一致性,很好地体现人眼的视觉特性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号