首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对在立体匹配过程中的低纹理和视差不连续的问题,提出了一种基于图像分割的立体匹配算法。首先采用Mean-Shift算法对彩色图像进行图像分割,并认为分割区域块内的像素视差是平滑的,然后采用较大窗口匹配方法,提取左右彩色图像相似像素点作为种子点,根据区域内的平滑约束条件,利用小窗口匹配方法将种子点向周围区域扩散,最终得到稠密视差图。实验结果表明该算法相比传统的自适应匹配算法,视差不连续区域匹配误差降低10%左右。  相似文献   

2.
基于小基高比的快速立体匹配方法   总被引:1,自引:0,他引:1  
为了提高立体匹配效率和获得高精度的亚像素级视差,该文提出一种快速的小基高比立体匹配方法。该方法首先利用积分图像加速自适应窗口和规范互相关度量的计算,然后根据可靠性约束进一步拒绝错误匹配,再采用基于迭代二倍重采样的亚像素级匹配方法为可信点计算亚像素级视差,最后利用基于图分割的视差平面拟合方法获得稠密的亚像素级视差图。实验结果表明该方法不但可获得高精度的亚像素级视差而且还提高了算法的匹配效率,满足了小基高比立体重建的需求。  相似文献   

3.
基于彩色图像分割的置信传播快速立体匹配算法   总被引:1,自引:0,他引:1  
本文采用了一种基于彩色图像分割和置信传播相结合的快速立体匹配算法。对于已经校准好的两幅图像,首先采用均值漂移算法对彩色图像进行图像分割,然后采用区域匹配算法进行快速初始立体匹配,再采用左右一致性校验法滤除误匹配点,得到初始视差图以及各个区域的视差平面模板。最后采用置信传播算法对获得的视差平面模板进行全局优化,得到各个区域最优视差平面模板,从而得到最终视差图。实验结果表明,采用区域匹配与全局优化算法相结合,不仅提高了立体匹配速度,同时也保证了匹配质量。  相似文献   

4.
基于改进Census变换的局部立体匹配算法   总被引:1,自引:0,他引:1  
针对基于传统Census变换的立体匹配算法鲁棒性差和精度不高的问题,提出一种基于改进Census变换的自适应权重立体匹配算法.首先,用Census变换窗口中邻域像素的中值来替换中心像素的灰度值,克服了邻域像素对中心像素的依赖;然后用自适应权重的方法分别计算匹配代价和进行立体匹配,得到初始视差;最后通过左右一致性校验和亚像素提精的方法得到稠密的视差图.实验结果表明,该算法有很强的鲁棒性和很高的匹配精度.  相似文献   

5.
图像多通道边缘信息辅助的快速立体匹配算法   总被引:1,自引:1,他引:0  
提出一种基于图像边缘及色彩信息辅助的立体匹配算法.首先给出一种彩色边缘侦测算子来获取彩色图像边缘信息,利用基于归一化相关系数的极线立体匹配得到视差图像边缘像素的视差信息.然后利用已获取彩色图像对的边缘信息对双步骤动态规划匹配策略进行匹配指导,获取稠密视差图并进一步优化.实验表明,提出的算法能很好地降低图像对中强度接近物体的误匹配概率的同时,有效提高匹配算法的运行效率.  相似文献   

6.
在立体匹配中,同时保证算法的精度和速度是一个技术难题。提出了一种基于贝叶斯理论的快速稠密立体匹配算法。将贝叶斯概率分布理论应用到立体匹配问题上,利用MSERDoG算子提取支撑点,像素灰度值作为匹配代价、固定窗口作为代价聚合对其进行匹配,对匹配好的支撑点进行三角剖分,将支撑点的视差、梯度、三角剖分的线性系数及分割作为计算视差的先验概率条件,从而保证了有效的视差搜索空间,提高了匹配效率。最终通过最小化能量函数获得稠密的视差图。在国际标准Middlebury平台进行实验,结果表明提出的算法匹配精度高,速度快,误匹配率低,匹配效率高。  相似文献   

7.
基于双目立体视觉的快速人头检测方法   总被引:4,自引:0,他引:4  
为满足人流统计实时性的要求,提出一种人头检测算法。该方法对双目相机采集的图像通过运动目标检测分离出运动人员所在区域,对这些区域使用融合区域匹配和特征匹配的快速匹配方法,即利用视差的连续性只对强纹理点进行绝对误差累积(SAD)匹配,其他点只进行简单的视差验证,能够得到稠密的视差图,再由三角投影关系计算出深度图。由于双目立体成像得到的深度图中人员与场景的深度分布不同,可以采用深度分层的方法将存在人头信息的深度层提取出来,经过数学形态学预处理再利用边缘检测会得到许多候选轮廓,最终利用轮廓的几何特征来判断轮廓是否为人头。实验表明:该算法可以很好地适应复杂场景下的人头检测,精度高、速度快。  相似文献   

8.
改进自适应加权的局部立体匹配算法   总被引:1,自引:0,他引:1  
针对Yoon经典自适应加权法在深度不连续处误匹配率较高、边缘细节不突出以及匹配窗口大小凭经验设计不通用等缺陷,提出了一种改进自适应加权的局部立体匹配算法.在经典自适应加权局部立体匹配算法的基础上用高斯分布权值替换了几何空间权值,增加了边缘权值突出深度不连续处的边缘细节,采用赢家通吃原则(Winner Take All,WTA)获取单像素点视差,在目标视图中逐点求取视差,最终获得稠密视差图.实验结果表明,该算法相比于经典自适应加权法,在非遮挡区域错误匹配百分比上下降6%,在深度不连续处的误匹配率降低了5%,边缘细节毛刺明显减少.  相似文献   

9.
该文利用韦伯定律和导引滤波提出基于代价分层聚合的快速立体匹配方法。首先提取立体图像对各彩色通道Weber描述符并初始化匹配代价。利用导引滤波增强匹配代价并提取视差候选;利用候选子集联合空间离散采样与自适应支持权重实现分层代价聚合;据此快速择优选取初始视差。视差求精中采用改进型双边滤波和对称映射后处理有效改善初始视差图中歧义区域。实验表明,该文方法能有效消除匹配歧义,获得分段平滑、高精度稠密视差;结构简单、快速高效且对光照变化具有鲁棒性。  相似文献   

10.
李小林  李文国  李浩 《电子科技》2019,32(11):12-18
针对传统局部匹配支持窗难以利用空间、灰度距离远的像素信息的问题,提出一种基于视差和灰度的双层支持窗立体匹配算法。该算法根据视差图获得第一层视差支持窗,在视差支持窗内配合参考图RGB颜色灰度值获得灰度相似子支持窗;随后以视差窗、灰度窗、中心像素为优化路径,通过类动态规划算法优化聚合匹配代价;最后采用WTA策略选取最佳视差,更新所有视差,并不断迭代优化视差图直到视差收敛。经过Middlebury 平台的测评,新算法的平均误匹配率为5.15%。  相似文献   

11.
针对现有局部立体匹配算法在计算匹配代价时, 不能很好区分强弱纹理区域,及在视差计算过程 中,不能很好的解决视差歧义问题,提出一种融合梯度特性与置信度的立体匹配算法。首先 计算梯度特 征,并根据梯度特征信息选择匹配代价计算的匹配窗口,针对强弱不同纹理区域选择不同尺 寸的匹配窗 口,有效的提高了立体匹配精度,降低了误匹配率;然后在视差计算中引入置信度约束条件 ,解决了视差 计算中视差歧义的问题,提高了立体匹配算法的稳定性与精度;最后使用水平与垂直方向交 叉区域检测进 行奇异值的修正。实验结果表明,该算法在Middlebury数据集中31对 立体图像对的平均误匹配率为7.96%,有效的提高了立体匹配精度。  相似文献   

12.
针对传统区域匹配算法中存在大量冗余计算,提出了一种多分辨率与视差梯度相结合的快速匹配算法。首先通过均值采样得到低分辨率图像对,再通过改进的视差梯度约束算法进行匹配得到低分辨率图像的视差图,最后引入盒滤波思想指导原始视差图的生成。实验表明,该快速匹配算法相对于传统的区域匹配算法,在改善精度的同时,减少了三倍以上运算时间。  相似文献   

13.
立体匹配算法在图像弱纹理区和重复纹理区存在匹配困难、误差大的问题,为此提出一种基于改进代价计算和视差候选策略的立体匹配算法。首先结合改进的Census变换和自适应加权融合的双向梯度信息来计算初始匹配代价,提高代价计算的可靠性。其中:为传统Census变换增加内圈编码,提高邻域信息利用率,同时降低噪声的影响;利用自适应权重函数融合横向和纵向梯度代价,降低物体边缘区域的误匹配率。其次,采用自适应十字交叉窗口进行代价聚合,并通过建立候选视差集和引入邻域视差信息的方法来获取初始视差。最后通过两轮插值策略优化视差。实验结果表明,所提算法能够提高弱纹理区和重复纹理区的匹配效果,在Middlebury中4幅标准立体图像对的平均误匹配率为5.33%。  相似文献   

14.
陆明军  叶兵 《半导体光电》2021,42(6):931-935
立体匹配是双目视觉领域的重要研究方向.为在保证图片纹理区域匹配精度的同时降低弱纹理区域的误匹配率,提出一种基于引导滤波及视差图融合的立体匹配方法.首先,根据图像颜色相似性将图片划分为纹理较丰富区域和弱纹理区域.接着,分别采用不同参数的引导滤波进行代价聚合及视差计算,得到两张视差图.然后依据纹理区域划分的结果对获得的两张视差图进行融合.最后,通过左右一致性检测、加权中值滤波等视差优化步骤得到最终视差图.对Middlebury测试平台上标准图像对的实验结果表明,该方法在6组弱纹理图像上的平均误匹配率为9.67%,较传统引导滤波立体匹配算法具有更高的匹配精度.  相似文献   

15.
林川  潘盛辉  李梦和 《信息技术》2011,(8):49-51,54
为获得图像边界区域有效视差信息,提出一种图像分块匹配的算法。首先根据像素点匹配窗口及视差搜索范围的越界情况,将图像分为中心和边界共九块,然后针对边界块,按照基准点靠近窗口中心的原则设定匹配窗口,最后分析了边界块与分界线上像素点的视差值关系。实验结果表明,该算法能获得良好的边界视差信息并节省了匹配时间。  相似文献   

16.
在光场计算成像中,场景深度重建问题被转化为视差重建问题。通过引入YCbCr颜色空间光场数据实现了基于光场数据单体化的高效视差重建。在Y通道进行区域匹配可避免RGB三通道匹配的冗余计算,进而提高了匹配效率。在Cb、Cr通道进行单体化可实现单体边缘去遮挡和内部视差一致性约束,解决了遮挡区域和平滑区域的误匹配问题。Cb、Cr色度信息为单体化提供了有效聚类信息,将区域生长和二分法相结合实现了单体的精准分割。在单体边缘处,根据单体边缘选取匹配窗口的形状和可见视点,避免了边缘遮挡误匹配的出现。在单体内部中,基于视差一致性先验实现了视差图的优化。模拟数据实验和实际数据实验的结果表明,所提方法在纹理、遮挡和平滑区域均能实现精确重建,对遮挡区域的视差重建具有很强的鲁棒性。  相似文献   

17.
为了精确建立两幅图像像素间的对应关系,克服区域立体匹配算法计算量大的缺点,提出了一种改进的区域立体匹配算法。改进的区域匹配算法运用双向立体匹配策略来提高两幅图像像素间的匹配精度,并结合mean-shift图像分割技术,在同一区域具有相同视差的假设前提下获得图像的稠密视差;为了克服区域立体匹配计算量大的缺点,该算法引入伪极线约束将真正匹配点的位置限定在一个非常小的范围内,从而大大减少了匹配点的搜索范围,有效地降低了匹配算法的计算量。实验结果表明,改进的双向匹配算法可以有效地缩小匹配搜索范围,并实现图像间的精确稠密匹配。  相似文献   

18.
立体匹配一直是计算机视觉和图像处理领域的中心研究问题。文中提出一种基于Mean Shift算法理论的区域分割图像的立体匹配方法,实现水平方向任意位置的视图合成。新的立体匹配方法是根据分割区域像素间的颜色相似性和多窗口的权值匹配代价函数实现立体图像的匹配,通过上述匹配法得到的视差图采用winner-take-all进行优化视差值并对其做平滑操作,最后采用正向视图插值方法对任意位置进行视图合成。实验结果表明,该算法具有良好的图像分割效果,较小的视图误差,轮廓清晰,具有良好的立体效果。  相似文献   

19.
张建业  朴燕 《液晶与显示》2018,33(4):357-364
针对稳态匹配概率(Steady-State Matching Probability,SSMP)立体匹配算法在处理视差范围大的测试图中产生的空洞现象以及使用该算法后由于右视差图中的错误视差导致的左视差图中正确视差丢失问题,提出一种基于稳态匹配概率和半全局匹配(Semi-Global Matching,SGM)相结合的立体匹配算法。首先使用SSMP算法求取初始视差图。接着,使用基于爬山法颜色分割的填充准则进行填充。然后使用SGM算法重新获取视差图,将两幅视差图中一致的视差信息填充到经过左右一致性检测后的含有空洞的视差图中。最后,使用SSMP算法中的空洞填充和中值滤波得到精化后的视差图。实验结果表明,改进后的SSMP算法在Middlebury测试平台上第2版本的四组图像的平均匹配误差从5.38%减少到5.23%,第3版本部分测试图像的平均匹配误差从24.7%减少到21.5%,该算法能很好地处理上述问题,有效提高匹配精确度,且具有鲁棒性。  相似文献   

20.
基于特征级联卷积网络的双目立体匹配   总被引:1,自引:0,他引:1  
针对图像序列病态区域匹配歧义性以及稠密视差图连通性的问题,本文提出一种基于特征级联卷积神经网络的双目立体匹配计算方法.构造特征重用的全卷积密集块,利用"跳连接"机制将浅层提取的特征图级联到后续子层,对深层卷积丢失的局部特征信息进行补偿.引入指示函数划分一定大小的训练集,将其批量输入特征级联卷积网络模型进行前向传播,同时通过小批量梯度下降(Mini-Batch Gradient Descent,MBGD)策略更新初始权重和偏置参数.根据负连接神经元对网络模型的输出进行初始匹配代价计算,并利用十字交叉域代价聚合(Cross Based Cost Aggregation,CBCA)和半全局立体匹配(Semi-Global Matching,SGM)等算法对代价函数进行优化,求得精准稠密的视差图.分别采用Middlebury数据库提供的训练和测试立体图像集对本文方法和深度学习方法MC-CNN、CBMV、MC-CNN-WS等具有代表性方法进行对比测试.实验结果表明,本文方法具有较高的视差计算精度和鲁棒性,尤其对复杂场景、光照变化以及弱纹理等困难场景图像序列能有效提高匹配率和保持图像细节.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号