共查询到20条相似文献,搜索用时 31 毫秒
1.
2.
3.
基于彩色图像分割的置信传播快速立体匹配算法 总被引:1,自引:0,他引:1
本文采用了一种基于彩色图像分割和置信传播相结合的快速立体匹配算法。对于已经校准好的两幅图像,首先采用均值漂移算法对彩色图像进行图像分割,然后采用区域匹配算法进行快速初始立体匹配,再采用左右一致性校验法滤除误匹配点,得到初始视差图以及各个区域的视差平面模板。最后采用置信传播算法对获得的视差平面模板进行全局优化,得到各个区域最优视差平面模板,从而得到最终视差图。实验结果表明,采用区域匹配与全局优化算法相结合,不仅提高了立体匹配速度,同时也保证了匹配质量。 相似文献
4.
5.
6.
在立体匹配中,同时保证算法的精度和速度是一个技术难题。提出了一种基于贝叶斯理论的快速稠密立体匹配算法。将贝叶斯概率分布理论应用到立体匹配问题上,利用MSERDoG算子提取支撑点,像素灰度值作为匹配代价、固定窗口作为代价聚合对其进行匹配,对匹配好的支撑点进行三角剖分,将支撑点的视差、梯度、三角剖分的线性系数及分割作为计算视差的先验概率条件,从而保证了有效的视差搜索空间,提高了匹配效率。最终通过最小化能量函数获得稠密的视差图。在国际标准Middlebury平台进行实验,结果表明提出的算法匹配精度高,速度快,误匹配率低,匹配效率高。 相似文献
7.
基于双目立体视觉的快速人头检测方法 总被引:4,自引:0,他引:4
为满足人流统计实时性的要求,提出一种人头检测算法。该方法对双目相机采集的图像通过运动目标检测分离出运动人员所在区域,对这些区域使用融合区域匹配和特征匹配的快速匹配方法,即利用视差的连续性只对强纹理点进行绝对误差累积(SAD)匹配,其他点只进行简单的视差验证,能够得到稠密的视差图,再由三角投影关系计算出深度图。由于双目立体成像得到的深度图中人员与场景的深度分布不同,可以采用深度分层的方法将存在人头信息的深度层提取出来,经过数学形态学预处理再利用边缘检测会得到许多候选轮廓,最终利用轮廓的几何特征来判断轮廓是否为人头。实验表明:该算法可以很好地适应复杂场景下的人头检测,精度高、速度快。 相似文献
8.
改进自适应加权的局部立体匹配算法 总被引:1,自引:0,他引:1
针对Yoon经典自适应加权法在深度不连续处误匹配率较高、边缘细节不突出以及匹配窗口大小凭经验设计不通用等缺陷,提出了一种改进自适应加权的局部立体匹配算法.在经典自适应加权局部立体匹配算法的基础上用高斯分布权值替换了几何空间权值,增加了边缘权值突出深度不连续处的边缘细节,采用赢家通吃原则(Winner Take All,WTA)获取单像素点视差,在目标视图中逐点求取视差,最终获得稠密视差图.实验结果表明,该算法相比于经典自适应加权法,在非遮挡区域错误匹配百分比上下降6%,在深度不连续处的误匹配率降低了5%,边缘细节毛刺明显减少. 相似文献
9.
10.
11.
针对现有局部立体匹配算法在计算匹配代价时, 不能很好区分强弱纹理区域,及在视差计算过程 中,不能很好的解决视差歧义问题,提出一种融合梯度特性与置信度的立体匹配算法。首先 计算梯度特 征,并根据梯度特征信息选择匹配代价计算的匹配窗口,针对强弱不同纹理区域选择不同尺 寸的匹配窗 口,有效的提高了立体匹配精度,降低了误匹配率;然后在视差计算中引入置信度约束条件 ,解决了视差 计算中视差歧义的问题,提高了立体匹配算法的稳定性与精度;最后使用水平与垂直方向交 叉区域检测进 行奇异值的修正。实验结果表明,该算法在Middlebury数据集中31对 立体图像对的平均误匹配率为7.96%,有效的提高了立体匹配精度。 相似文献
12.
针对传统区域匹配算法中存在大量冗余计算,提出了一种多分辨率与视差梯度相结合的快速匹配算法。首先通过均值采样得到低分辨率图像对,再通过改进的视差梯度约束算法进行匹配得到低分辨率图像的视差图,最后引入盒滤波思想指导原始视差图的生成。实验表明,该快速匹配算法相对于传统的区域匹配算法,在改善精度的同时,减少了三倍以上运算时间。 相似文献
13.
立体匹配算法在图像弱纹理区和重复纹理区存在匹配困难、误差大的问题,为此提出一种基于改进代价计算和视差候选策略的立体匹配算法。首先结合改进的Census变换和自适应加权融合的双向梯度信息来计算初始匹配代价,提高代价计算的可靠性。其中:为传统Census变换增加内圈编码,提高邻域信息利用率,同时降低噪声的影响;利用自适应权重函数融合横向和纵向梯度代价,降低物体边缘区域的误匹配率。其次,采用自适应十字交叉窗口进行代价聚合,并通过建立候选视差集和引入邻域视差信息的方法来获取初始视差。最后通过两轮插值策略优化视差。实验结果表明,所提算法能够提高弱纹理区和重复纹理区的匹配效果,在Middlebury中4幅标准立体图像对的平均误匹配率为5.33%。 相似文献
14.
立体匹配是双目视觉领域的重要研究方向.为在保证图片纹理区域匹配精度的同时降低弱纹理区域的误匹配率,提出一种基于引导滤波及视差图融合的立体匹配方法.首先,根据图像颜色相似性将图片划分为纹理较丰富区域和弱纹理区域.接着,分别采用不同参数的引导滤波进行代价聚合及视差计算,得到两张视差图.然后依据纹理区域划分的结果对获得的两张视差图进行融合.最后,通过左右一致性检测、加权中值滤波等视差优化步骤得到最终视差图.对Middlebury测试平台上标准图像对的实验结果表明,该方法在6组弱纹理图像上的平均误匹配率为9.67%,较传统引导滤波立体匹配算法具有更高的匹配精度. 相似文献
15.
16.
在光场计算成像中,场景深度重建问题被转化为视差重建问题。通过引入YCbCr颜色空间光场数据实现了基于光场数据单体化的高效视差重建。在Y通道进行区域匹配可避免RGB三通道匹配的冗余计算,进而提高了匹配效率。在Cb、Cr通道进行单体化可实现单体边缘去遮挡和内部视差一致性约束,解决了遮挡区域和平滑区域的误匹配问题。Cb、Cr色度信息为单体化提供了有效聚类信息,将区域生长和二分法相结合实现了单体的精准分割。在单体边缘处,根据单体边缘选取匹配窗口的形状和可见视点,避免了边缘遮挡误匹配的出现。在单体内部中,基于视差一致性先验实现了视差图的优化。模拟数据实验和实际数据实验的结果表明,所提方法在纹理、遮挡和平滑区域均能实现精确重建,对遮挡区域的视差重建具有很强的鲁棒性。 相似文献
17.
为了精确建立两幅图像像素间的对应关系,克服区域立体匹配算法计算量大的缺点,提出了一种改进的区域立体匹配算法。改进的区域匹配算法运用双向立体匹配策略来提高两幅图像像素间的匹配精度,并结合mean-shift图像分割技术,在同一区域具有相同视差的假设前提下获得图像的稠密视差;为了克服区域立体匹配计算量大的缺点,该算法引入伪极线约束将真正匹配点的位置限定在一个非常小的范围内,从而大大减少了匹配点的搜索范围,有效地降低了匹配算法的计算量。实验结果表明,改进的双向匹配算法可以有效地缩小匹配搜索范围,并实现图像间的精确稠密匹配。 相似文献
18.
19.
针对稳态匹配概率(Steady-State Matching Probability,SSMP)立体匹配算法在处理视差范围大的测试图中产生的空洞现象以及使用该算法后由于右视差图中的错误视差导致的左视差图中正确视差丢失问题,提出一种基于稳态匹配概率和半全局匹配(Semi-Global Matching,SGM)相结合的立体匹配算法。首先使用SSMP算法求取初始视差图。接着,使用基于爬山法颜色分割的填充准则进行填充。然后使用SGM算法重新获取视差图,将两幅视差图中一致的视差信息填充到经过左右一致性检测后的含有空洞的视差图中。最后,使用SSMP算法中的空洞填充和中值滤波得到精化后的视差图。实验结果表明,改进后的SSMP算法在Middlebury测试平台上第2版本的四组图像的平均匹配误差从5.38%减少到5.23%,第3版本部分测试图像的平均匹配误差从24.7%减少到21.5%,该算法能很好地处理上述问题,有效提高匹配精确度,且具有鲁棒性。 相似文献
20.
基于特征级联卷积网络的双目立体匹配 总被引:1,自引:0,他引:1
针对图像序列病态区域匹配歧义性以及稠密视差图连通性的问题,本文提出一种基于特征级联卷积神经网络的双目立体匹配计算方法.构造特征重用的全卷积密集块,利用"跳连接"机制将浅层提取的特征图级联到后续子层,对深层卷积丢失的局部特征信息进行补偿.引入指示函数划分一定大小的训练集,将其批量输入特征级联卷积网络模型进行前向传播,同时通过小批量梯度下降(Mini-Batch Gradient Descent,MBGD)策略更新初始权重和偏置参数.根据负连接神经元对网络模型的输出进行初始匹配代价计算,并利用十字交叉域代价聚合(Cross Based Cost Aggregation,CBCA)和半全局立体匹配(Semi-Global Matching,SGM)等算法对代价函数进行优化,求得精准稠密的视差图.分别采用Middlebury数据库提供的训练和测试立体图像集对本文方法和深度学习方法MC-CNN、CBMV、MC-CNN-WS等具有代表性方法进行对比测试.实验结果表明,本文方法具有较高的视差计算精度和鲁棒性,尤其对复杂场景、光照变化以及弱纹理等困难场景图像序列能有效提高匹配率和保持图像细节. 相似文献