首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 234 毫秒
1.
针对区域匹配算法在灰度变化比较大区域精度不高的问题,提出一种改进的匹配算法.利用Sobel算子计算各像素点的梯度值,根据梯度幅度直方图获得自适应阈值,动态建立支持窗口.改进传统的Census变换,用窗口内所有像素均值代替中心像素进行Census变换,在左右图像中寻找最佳匹配点获得视差图.利用FPGA并行处理和硬件实现的优点,对大数据量实时地进行处理,提高运算效率.实验结果表明:改进的立体匹配算法和硬件结构能够获得精度较高的视差图,处理640×480的图像对只需32.4 ms.  相似文献   

2.
用于立体图像编码的自适应块匹配视差估计算法   总被引:3,自引:3,他引:0  
提出了一种新的自适应块匹配视差估计算法,对图像用固定尺寸分块并做视差估计,利用对应块之间的亮度估计误差判断是否进行自适应的块匹配估计.在自适应块匹配算法中使用亮度估计误差的方差来控制匹配窗口的大小和形状,得到最优的匹配窗口.用这个窗口重新进行视差估计,得到最后的视差矢量.实验证明,该算法的估计误差小于传统的固定尺寸块匹配算法,效率优于一些用于立体图像分析的自适应块匹配算法,是一种简单、实用、适合编码系统使用的视差估计算法.  相似文献   

3.
立体匹配是立体视觉技术的核心算法,但计算量大,实时性差,现有的基于FPGA的实现方法虽然可实时实现,但芯片选型通常是高性能FPGA芯片。该文针对Altera高性价比CycloneII系列FPGA芯片提出一种Census立体匹配算法的硬件实现结构,可实现640×480立体图像的实时匹配。与现有方法相比,资源占用低,匹配速度快,适用于低成本应用。  相似文献   

4.
针对局部立体匹配算法在弱纹理或视差不连续区域匹配精度低等问题,提出了一种结合卷积神经网络(CNN)和特征金字塔结构(FPN)的多尺度融合的立体匹配算法。在卷积神经网络的基础上应用了特征金字塔,实现立体图像的多尺度特征提取和融合,提高了图像块的匹配相似度;利用引导图滤波器(guided filtering)快速有效地完成代价聚合,在视差的选择阶段采用改进的动态规划(DP)算法获得初始视差图,对初始视差图精细化得到最后的视差图。所提算法在Middlebury数据集上提供的图像进行训练和测试,结果表明该算法得到的视差图具有较好的效果。  相似文献   

5.
物流配送路径优化理论在立体匹配技术中的应用研究   总被引:3,自引:1,他引:2  
由于目前的立体匹配算法大都以追求高匹配精确度为目的,造成了算法执行时间过长,不利于实时场合的应用.因此,提出了将物流领域中的配送路径优化理论和方法,即节约算法,引入立体匹配技术中,构建一种高匹配精度、高执行速度的立体匹配算法,并将该方法引入到双目立体视觉中.首先用金字塔算法在低分辨率图像上求取控制点,之后结合物流网络的构建理论修正初始视差空间图像,进而利用物流配送路径优化中实时性强的特点,在修正后的视差空间图像上快速找到全局最优路径,从而生成具有全局最优特性的视差.实验结果表明,本方法将大大增强立体视觉技术在实时场合下的适用性.  相似文献   

6.
提出一种基于梯度和MRF(Markov Random Field)模型的视差估计及优化算法.采用图像灰度和梯度加权联合的方法进行块匹配运算,获得初始视差场.然后根据顺序匹配准则对该视差场进行交叉块检测,并运用基于MRF模型的因果预测对误匹配块进行迭代校正,最终获得较为精确平滑的视差场.实验表明,与传统块匹配法相比,该算法生成的视差场能够将预测图像峰值信噪比提高1.2~1.8dB,且运算时间在1s以内.  相似文献   

7.
针对3D拍摄设备体积较大且只能获取单一方向3D图像的问题,使用FPGA作为主控芯片构建微型化的双向3D图像传感器,实现两个方向3D图像的同步获取,并且实时输出3D合帧视频,通过监控四目同帧图像确保两个方向3D图像的正确性。利用FPGA高速并行处理能力保证数据处理的实时性,设计轮序缓存算法解决跨时钟域问题,设计四目同帧逻辑算法,同步并行处理四路数据以形成3D合帧视频。通过调试和实验可见,基于FPGA构建双向3D图像传感器可以同步获取两个方向的视差图像,能够完成四目同帧视频输出,该硬件系统设计合理且逻辑算法正确。  相似文献   

8.
针对计算机视觉领域中立体匹配算法在图像无纹理区产生的误匹配问题,提出以全变差函数为凸约束集,使用次梯度投影法,对通过初始视差变换后的立体图像对之间的像素误差函数和视差二次平滑因子形成的严格凸函数进行求解,寻求立体图像对之间的最优视差图。实验结果表明,该方法不仅能保留初始视差图的边缘,而且减少了由先前立体匹配算法求得的视差图在无纹理区产生的误匹配点,取得了良好的视差图优化效果。  相似文献   

9.
改进的立体像对稠密匹配算法   总被引:1,自引:1,他引:0  
针对目前主流方法对图像中纹理单一区域匹配效果不佳的问题,提出了一种改进的立体像对稠密匹配算法。该算法首先利用区域增长技术找到图像中的纹理单一区域,然后将整个区域作为匹配基元以得到纹理单一区域的稠密视差图。相对于点基元,区域基元包含的信息更多,且在图像中不易重复出现,因此可以减少误匹配发生的几率。在国际标准测试图像上进行了实验,结果证明该算法的可行性与准确性。  相似文献   

10.
提出了适应于IBM CELL BE并行处理器的两种立体匹配算法——动态规划(DP)算法和置信传播(BP)算法的实现方案。改进了BP算法中的数据成本计算方法,采用重叠窗方法保持BP算法原有的匹配效果。实验证明,基于CELL处理器的并行实现极大地提高了生成视差图的运算速度。针对室外场景噪声较大的特点,提出采用Sobel边缘检测和Residual算子对图像进行预处理,实验结果表明,该方法改善了生成视差图的效果。本文算法在低成本硬件设备平台上提升了立体匹配技术的计算效率,在汽车自动和辅助驾驶系统、多媒体视觉技术的硬件一体化中具有重要的应用价值。  相似文献   

11.
针对在立体匹配研究领域中弱纹理区域的匹配问题,文中提出了一种基于区域的实时立体匹配改进算法.采用匹配测度函数像素灰度差的绝对值和(Sum of Absolute Differ-ence,SAD),通过平均误差阈值算法检测出高误差能量;针对遮挡区域造成的不可信视差预测点,进行误差能量计算;利用滤波加速算法减少计算匹配窗口相似性复杂度,既降低了误匹配率,又提高了算法的运行速度.实验结果表明,改进算法的误匹配像素百分比明显减小,且能满足系统对实时性的要求.  相似文献   

12.
针对立体视频数据量大、立体匹配算法效率较低,远远满足不了实时传输需求的现状,提出了一种应用于单视加深度立体视频编码的快速立体匹配算法。该算法利用单视编码过程中产生的运动信息作为深度图生成的辅助信息,将立体匹配过程中的视差估计值重组,并将重组后的信息作为P帧的视差估计初值进行后续的迭代运算。算法通过利用单视编码过程中已有的运动信息,降低了P帧立体匹配的运算复杂度。实验结果表明,该算法能使视差图的生成速度提高一倍左右。  相似文献   

13.
基于色彩比例和时域相关的置信度传播立体视频匹配算法   总被引:1,自引:0,他引:1  
提出一种改进的立体视频匹配算法,首先通过马尔科夫随机场建立视差图模型,然后利用亮度和色彩比例求置信度,最后根据时域相关性局部更新视差值得到视差序列。以卡耐基梅隆大学提供的真实场景视频为测试序列,实验结果表明:基于亮度和色彩比例比单纯使用亮度得到的匹配更准确,根据时域相关性求视差序列比用逐帧置信度传播求视差序列减少了83.3%以上的迭代计算时间,为立体视频的压缩传输、任意视点视频合成提供了高效的视差序列。  相似文献   

14.
针对软件去噪算法难以满足实时图像处理的问题,采用基于FPGA的硬件滤波算法,该方案相对于软件算法具有高度的并行性和灵活的硬件可编程性.采用Matlab和QuartusⅡ的联合测试平台,分析和优化了基于FPGA的维纳滤波算法的设计,同时通过实验结果比较了十字型与3×3型滤波窗口设计对滤波效果的影响,实验证明3×3窗口的滤波效果比十字窗口的滤波效果更好.  相似文献   

15.
针对双目立体匹配中由于噪声和遮掩的影响产生模糊视差点的问题,提出了一种新的基于difference of gaussian(DoG)的立体匹配算法.该算法在the sumof absolutes(SAD)算法提取初步视差图的基础上,采用DoG算法来分析噪声等对视差图的影响,通过设定阈值筛选出模糊点,最后使用多重视差假定算法修补模糊点.实验证明,在SAD算法的基础上使用该算法可获得较好的匹配效果.  相似文献   

16.
为解决网络深度与训练图像块大小耦合问题及进一步提高弱纹理区域及边缘处的匹配精度,提出了一种基于多尺度注意力网络的立体匹配方法.该方法将立体匹配过程分为2个阶段:第1阶段提出了一种成本网络用于计算匹配成本,该网络由基础网络层和缩放层组成.第2阶段提出了一种基于多尺度注意力的视差求精网络,该视差求精网络综合了多种视差线索,并加入多尺度注意力机制进一步提高立体匹配精度.该方法在KITTI 2012、KITTI 2015和SceneFlow数据集上的3像素坏点百分比分别为1.13%,1.87%和2.29%.实验结果表明,与国内外同类方法相比,采用多尺度注意力网络的立体匹配方法在匹配精度上获得了较大的提升,尤其是在弱纹理区域及物体边缘处表现较好.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号