首页 | 本学科首页   官方微博 | 高级检索  
检索     
共有20条相似文献,以下是第1-20项 搜索用时 765 毫秒

1.  基于可变特征基元的视差估计新方法  
   陈文鑫  陈伟东  朱仲杰  白永强《计算机工程与应用》,2008年第44卷第15期
   视差估计是立体视频和多视点视频信号处理中的一个关键问题。选择可变长线段作为特征基元,提出一种基于特征匹配的视差估计新方法。算法结合唯一性和顺序性约束条件来增强视察估计的可靠性与准确性。在详细介绍了算法的基本原理后进行了实验仿真,实验结果表明新算法能获得较为准确、可靠、亚像素精度的密集视差场,其性能优于固定块匹配(Fixed Size Block Matching,FSBM)、可变块匹配(Variable Size Block Matching,VSBM)等传统的视差估计算法。    

2.  基于区域面积和特征的图像配准  
   陈波  张立伟《计算机与现代化》,2008年第7期
   图像配准是图像处理领域的一个研究热点。双目线索是人类和动物的视觉系统获取深度信息的主要手段之一,而配准是视差测距过程中最主要的步骤。本文主要实现了基于面积的配准和基于边缘点特征的Barnard方法,并且对有关的实验结果进行了直观的分析。    

3.  一种基于特征的约束匹配方法  被引次数:4
   林志泉  胡永健  杨晖  汪伟《中国图象图形学报》,2007年第12卷第11期
   提出了一种基于特征的双向视差域约束匹配方法。首先提取图像特征点约简候选匹配像素集,然后进行双向唯一性匹配并在匹配过程中根据双目图像的投影特性设计视差域约束,最后设计了一个滑动平均邻域视差来剔除视差值偏差太大的匹配对。实验结果表明,该方法简单快速,匹配成功率高,可处理复杂场景,具有良好的实用价值。    

4.  双目移动机器人立体匹配算法  被引次数:1
   王贵财  崔平远  居鹤华《北京工业大学学报》,2011年第37卷第5期
   提出一种基于图像分割和可信点的双目移动机器人立体匹配算法,首先采用纹理检验分割算法对双目移动机器人获得的左右图像进行分割,确定低纹理和纹理相似区域;然后通过SIFT特征匹配点得到可信点视差;其次采用SAD区域匹配加速算法得到初始视差;最后依据SIFT特征匹配点的分布、初始视差和最小距离分类器对图像分割块进行视差处理,同时对于较小的图像分割块进行BLOB滤波处理来获取较高精度的视差图.实验结果表明,本算法能有效解决双目移动机器人周边环境中的低纹理和纹理相似视差精度差的问题,可快速准确识别障碍.    

5.  电子稳像技术在DM642上的实现  被引次数:1
   陆勤锋《山西电子技术》,2011年第3期
   实现了一种基于块匹配法(Block Matching Algorithm)的电子稳像系统。系统使用TI公司的TMS320DM642专用图像处理芯片,稳像算法采用求和绝对误差(SAD,the Sum of Absolute Difference)作为块匹配的匹配准则来估算原始视频图像的运动矢量,SAD准则便于硬件实现。系统利用运动矢量对图像进行运动补偿后得到稳定的视频图像输出。    

6.  基于双目相机的光栅立体印刷图像合成  
   李治江  冯谨强  曹文冬  徐俊龙《包装工程》,2014年第35卷第15期
   目的研究一种基于双目相机的光栅立体图像合成方法。方法首先用双目相机采集场景中2个观察角度的二维平面图像数据。基于双目立体视觉理论,采用一种鲁棒性较强的基于区域分割的图像匹配方法,得到精度较高的深度图。然后分析序列视差图像的成像模型,建立一种基于双目图像对生成序列视差图像的方法,得到连续角度等间隔的序列图像。最后基于柱镜光栅的光学特性形成的立体印刷图像编码规则,对序列视差图像进行纵向条纹抽样分割,等间隔的抽取每幅序列视差图像中的对应列实现光栅立体图像的合成。结果验证了该光栅立体图像合成方法的有效性。结论基于双目相机的光栅立体合成方法,可以使立体印刷产品实现个性化、便捷化的即时输出。    

7.  小型无人机动平台的双目立体匹配方法研究  
   杨洁  闫清东《计算机工程与设计》,2012年第33卷第1期
   针对双目立体匹配中存在的误匹配、视差场稀疏等不足,提出了一种将区域匹配和特征匹配相结合的块匹配算法.对匹配图像对进行极线校正和限定搜索区域,采用SAD算法进行相似度测量.对小型无人机动平台的双目系统采集的任意一幅图像对用不同大小的匹配窗进行匹配.对结果进行了分析,结果表明了该方法的良好效果及实用性.    

8.  基于多约束的图像特征点鲁棒匹配方法  被引次数:1
   宋汉辰  吴玲达  魏迎梅《小型微型计算机系统》,2005年第26卷第11期
   提出了一种基于多约束的图像特征点匹配的鲁棒算法,在计算匹配强度和构造匹配矩阵的基础上,通过视差约束、邻域相对视差约束和唯一性约束对匹配矩阵进行约简,以实现双目图像特征点的鲁棒匹配,最后给出了实验结果.    

9.  基于K-means聚类和RANSAC的图像配准算法研究  
   王天召  徐克虎  陈金玉《计算机工程与科学》,2014年第36卷第9期
   针对图像配准中特征点匹配方法存在实时性不高和精度低的问题,提出了一种基于K-means聚类和RANSAC的图像配准算法。该算法根据匹配点对距离和方向特征的视差约束条件,首先利用Kmeans聚类对匹配点对进行预处理,剔除大部分错误匹配点,然后利用RANSAC进行二次优化,实现了图像的快速和精确配准。实验结果表明,该算法不仅提高了图像配准的精确度,而且提高了图像配准的速度。    

10.  基于双目立体视觉的深度信息测量  
   王玉翰  金波《机电工程技术》,2015年第3期
   介绍了双目立体视觉三角测距原理和视觉测量系统,双目摄像机拍摄彩色图像,提取颜色、轮廓、纹理等识别特征用于目标区域识别。采用区域匹配算法获得视差图,根据视差计算目标区域的三维坐标信息。完成了目标测量实验并对实验结果进行分析。    

11.  基于角点检测的双目视觉测距新方法  
   任继昌  杨晓东《电光与控制》,2013年第7期
   为解决双目视觉中立体匹配困难、效率低的问题,提出了一种基于角点检测的人工匹配方法实现双目视觉测距。首先介绍了双目测距基本原理,对摄像机进行了标定,并采用Bouguet 立体校正算法对双目视觉系统进行立体校正;然后采用J.Shi 和C.Tomasi提出的角点方法对立体校正后的左右摄像机图像中被测目标上的同一特征点进行了亚像素级角点提取,并利用提取的匹配角点坐标结合双目视觉测距公式实现距离测量。    

12.  基于角点检测的双目视觉测距新方法  
   任继昌  杨晓东《电光与控制》,2013年第7期
   为解决双目视觉中立体匹配困难、效率低的问题,提出了一种基于角点检测的人工匹配方法实现双目视觉测距。首先介绍了双目测距基本原理,对摄像机进行了标定,并采用Bouguet立体校正算法对双目视觉系统进行立体校正;然后采用J.Shi和C.Tomasi提出的角点方法对立体校正后的左右摄像机图像中被测目标上的同一特征点进行了亚像素级角点提取,并利用提取的匹配角点坐标结合双目视觉测距公式实现距离测量。    

13.  一种改进的快速立体匹配算法  
   刘党辉  肖艳青  苏永芝  李智强《新技术新工艺》,2010年第5期
   提出了一种改进的快速立体匹配算法。对于双目视觉系统采集的2幅图像,首先采用区域匹配算法进行初始快速立体匹配,再采用左右一致性检验剔除误匹配点,得到立体匹配的初始视差图。然后将初始视差作为图割法构图的限制条件,对初始视差图进行二值分割。最后对分割获得的前景区域和背景区域施加不同的限制,并通过修正能量函数,使构图网络大大减小,从而进一步提高了匹配速度。试验结果表明,该算法既提高了立体匹配速度,又保证了匹配精度。    

14.  基于DSP的图像压缩系统设计与算法研究  
   须文波  陈玉萍  孙 俊《计算机工程与应用》,2007年第43卷第24期
   提出一种基于DSP和FPGA协同设计实现视频图像压缩的控制逻辑方案。由FPGA模块来实现图像采集,DSP模块进行编码压缩,同时针对块匹配算法中搜索精度与计算复杂度相关性问题,介绍了一种基于块匹配的量子行为的微粒群优化算法(Block Match Quantum-behaved Particle Swarm Optimization,BMQPSO)。在图像的实时压缩算法处理中,先对原始图像序列每一帧的宏块用微粒子进行搜索,再根据收敛性要求对压缩编码进行优化。实验结果表明该算法压缩效果优于经典搜索算法。    

15.  视觉测距系统中实时图像处理算法的实现  
   王巾  高文清  周强  李平《光电技术应用》,2006年第21卷第3期
   针对双目视觉测距系统中图像处理的实时性和精确性要求高的情况,在软件设计上采用了“变分辨率”快速配准技术和亚像素级精确视差分析算法以及误差补偿算法,并结合了平滑滤波、边缘提取和二值化等预处理过程.经实验表明这几种算法的采用很好的提高了图像处理的实时性和精确性,实现了实时精确视觉测距.    

16.  一种深度相机与双目视觉结合的视差估计技术  
   魏少鹏  严惠民  张秀达《光电工程》,2015年第7期
   对于双目视觉立体匹配算法,先验的视差范围估计是影响算法匹配效果和运行时间的重要因素。在双目视觉系统的实际应用中,匹配视图之间的视差范围通常随场景的变化而不断改变,因此需要对视图间的视差范围进行有效的自动估计。针对此问题,开发了一种双模相机,可分时采集场景的灰度图像和深度图像,该深度图像与灰度图像有相同的空间分辨力。在双目视图匹配过程中,通过引入深度图的信息,可约束每一个待匹配像素的视差范围。对于实验室内采集的普通视图对,本文方法相较以视图间视差最大、最小值为约束的方法,匹配速度提高3倍以上,匹配误差减少2%,有效提高了匹配的可靠性和普适性。    

17.  一种柱面全景图像自动拼接算法  被引次数:6
   王娟  师军《计算机仿真》,2008年第25卷第7期
   提出了一种基于特征块匹配的柱面全景图像拼接算法.首先将360度环绕拍摄的序列图像投影到柱面坐标系下;然后以一幅图像为基准图像,选择基准图像中边缘信息丰富的块作为基准块,利用特征块匹配法在待配准图像中找出与基准块匹配的配准块,进而实现两幅图像的配准;再根据配准结果计算出图像间的变换参数;最后采用平滑因子对两幅图像的重叠区域进行图像无缝拼接.实验证明,算法可以快速自动地生成柱面全景图像,具有良好的鲁棒性.    

18.  基于互信息的亚像素级立体视觉点匹配方法研究  
   孙少杰  杨晓东  任继昌《电光与控制》,2015年第4期
   在立体视觉测量中,为获得更高精度,往往需要将视差计算精确到亚像素级。将互信息理论引入双目图像配准并结合多分辨率技术实现亚像素级点匹配。采用Bouguet 立体校正算法对左右图像进行极线校正,利用Harris角点探测器检测目标并将获取角点作为待匹配点,采用最大互相关法进行搜索确定像素级匹配点。然后对以左右匹配点为中心的20×20邻域图像进行插值并分别放大10倍和100倍,采用互信息方法先对低分辨率图像进行配准,再在高分辨率图像上进一步细化求精,结合像素级匹配的整数视差可得最终亚像素级视差。实验结果表明,该方法能将视差精度提高到0.01像素。    

19.  基于互信息的高精度双目视觉测距方法研究  
   任继昌  杨晓东《控制工程》,2015年第1期
   在立体视觉测量中,为获得更高测量精度,拓展测距范围,最重要的是要获得精确的亚像素级视差。为此,引入图像配准领域常用的互信息理论并结合Powell优化算法实现亚像素级点匹配。首先,利用Harris角点探测器检测目标,并将得到的角点作为待匹配点,再采用最大互相关法对左图像进行匹配搜索确定匹配点。然后再对以左右匹配点为中心的一定大小的邻域图像进行插值,分别放大10倍和100倍。引入多分辨率配准策略,加快了图像配准速率。先采用互信息理论结合Powell优化算法对低分辨率图像进行配准,然后再在高分辨率图像上对第一次配准的结果进行细化,结合像素级匹配的整数视差可得到最终的亚像素级视差。实验结果表明,该方法能将视差精度提高到0.01像素,提高了测距精度。    

20.  基于互信息的高精度双目视觉测距方法研究  
   任继昌a  杨晓东b《控制工程》,2015年第22卷第1期
   在立体视觉测量中,为获得更高测量精度,拓展测距范围,最重要的是要获得精确的亚像素级视差。为此,引入图像配准领域常用的互信息理论并结合Powell优化算法实现亚像素级点匹配。首先,利用Harris角点探测器检测目标,并将得到的角点作为待匹配点,再采用最大互相关法对左图像进行匹配搜索确定匹配点。然后再对以左右匹配点为中心的一定大小的邻域图像进行插值,分别放大10倍和100倍。引入多分辨率配准策略,加快了图像配准速率。先采用互信息理论结合Powell优化算法对低分辨率图像进行配准,然后再在高分辨率图像上对第一次配准的结果进行细化,结合像素级匹配的整数视差可得到最终的亚像素级视差。实验结果表明,该方法能将视差精度提高到0.01像素,提高了测距精度。    

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号