共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
针对当前基于双目视觉的道路环境分析实时性差、检测不准确等问题,提出了一种改进V视差法的道路区域检测算法。该算法首先对原始图片进行车道线检测确定道路消失点,从而确定图像的感兴趣区域。然后,使用极大最小值约束获取V视差图中的斜线,从而提取道路区域。实验结果表明,由于该方法在确定感兴趣区域后计算原始视差图,因此,速度提高了29.71%,且相对于传统V视差法,算法更好地实现了路面分割;同时,障碍物检测的精确率和召回率两个指标分别提高了2.165%和4.837%。基于该算法具有良好的准确性和实时性,能有效识别道路中的障碍物,因此,可以为车辆提供可行驶区域以及为驾驶员提供辅助作用。 相似文献
3.
4.
立体匹配是双目视觉领域的重要研究方向.为在保证图片纹理区域匹配精度的同时降低弱纹理区域的误匹配率,提出一种基于引导滤波及视差图融合的立体匹配方法.首先,根据图像颜色相似性将图片划分为纹理较丰富区域和弱纹理区域.接着,分别采用不同参数的引导滤波进行代价聚合及视差计算,得到两张视差图.然后依据纹理区域划分的结果对获得的两张视差图进行融合.最后,通过左右一致性检测、加权中值滤波等视差优化步骤得到最终视差图.对Middlebury测试平台上标准图像对的实验结果表明,该方法在6组弱纹理图像上的平均误匹配率为9.67%,较传统引导滤波立体匹配算法具有更高的匹配精度. 相似文献
5.
基于双目立体视觉的快速人头检测方法 总被引:4,自引:0,他引:4
为满足人流统计实时性的要求,提出一种人头检测算法。该方法对双目相机采集的图像通过运动目标检测分离出运动人员所在区域,对这些区域使用融合区域匹配和特征匹配的快速匹配方法,即利用视差的连续性只对强纹理点进行绝对误差累积(SAD)匹配,其他点只进行简单的视差验证,能够得到稠密的视差图,再由三角投影关系计算出深度图。由于双目立体成像得到的深度图中人员与场景的深度分布不同,可以采用深度分层的方法将存在人头信息的深度层提取出来,经过数学形态学预处理再利用边缘检测会得到许多候选轮廓,最终利用轮廓的几何特征来判断轮廓是否为人头。实验表明:该算法可以很好地适应复杂场景下的人头检测,精度高、速度快。 相似文献
6.
针对六旋翼无人机双目视觉成像时,经双目融合后反馈的图像噪点过多,以及图像精度不够理想的问题,提出了一种在匹配过程中融入全局差错能量最小化的区域立体视觉匹配算法。由于视差的求解是立体匹配过程中最重要的环节,因此本文利用最小化差错能量矩阵求解最优视差的原理。通过提高立体视觉的视差精度,从而减少视觉融合过程中因数据问题产生的噪声干扰,最终提高了对场景信息三维重构的准确度。通过分别在室内外的仿真实验与真实环境重构实验,验证了本文提出的基于双目视觉的六旋翼无人机立体匹配算法的有效性与可靠性。 相似文献
7.
为了解决实测场景下光照变换及弱纹理区域对三维重建效果的影响,提出一种双目测量系统的改进AD-Census立体匹配算法进行室内目标物体的定位及三维重建。方法基于双目视觉测量原理,首先采用直方图均衡化、自适应阈值Canny边缘提取及膨胀等操作进行图像预处理,其次利用张正友标定法完成相机标定,通过立体校正去除相机畸变,基于梯度划分弱纹理及边缘区域来改进AD-Census立体匹配算法,最后用所改进算法生成的视差图,实现了室内物体的定位及三维点云重建。实验结果表明,本方法可以提高在弱纹理背景区域的匹配精度,在10 m测距范围内,相对误差不超过5%,在1.8 m处,测量误差较小,在保证精度的同时实现了室内目标场景轮廓的基本重建,视觉效果较好,可广泛应用于实际中。 相似文献
8.
为了CT系统进行定位片扫描时能够快速且准确的确定头部的扫描范围,提出了一种基于双目立体视觉的测量方法。方法能够在非接触环境下获取人体的头长和头宽。使用双目相机作为人体图像的采集设备,利用MATLAB、VS2017开发平台,使用张正友标定法标定双目相机获取相机内部参数。使用GrabCut图像分割算法对图像进行预处理,将前景的人体图像与背景分割。将立体校正后的左右图像通过SGBM算法进行立体匹配获得视差图,进而得到头部关键点的三维坐标,计算出人体的头长和头宽。实验结果表明该方法测量准确,误差小于1 cm。 相似文献
9.
针对基于尺度空间对图象保持不变性的SIFT算法在双目立体视觉应用时实时性差、误匹配等问题,提出一种运用Harris-SIFT算法进行双目立体视觉定位方法.通过介绍双目立体视觉的模型原理,利用Harris-SIFT算法从左右摄像机分别获取的图像中检测目标,并获取匹配目标的特征点,对两幅图像中目标物体的坐标标定,通过计算可得到目标物体的深度距离,还原其三维信息.实验证明,运用Harris-SIFT算法使该系统的实时性能和距离精度得到提高. 相似文献
10.
11.
尽管传统的立体匹配模型在精度和鲁棒性方面都表现出了良好的性能,但在弱纹理和深度不连续区域的视差精度问题依然存在。针对上述问题,提出了一种基于改进匹配代价和均值分割的最小生成树立体匹配算法。首先,在匹配代价计算阶段,通过Census变换进行初始匹配代价计算,利用Sobel算子对输入图像进行边缘信息提取,将提取后的图像边缘信息与Census变换后的匹配代价值进行融合,并将其与基于图像亮度信息的代价值进行非线性融合,以提高匹配代价的精度;然后,使用最小生成树代价聚合模型进行聚合操作并利用赢者通吃策略估计图像的初始视差;最后,在视差优化阶段,采用MeanShift算法对图像进行分割,结合图像的轮廓信息对误匹配点进行修正,进一步提高在弱纹理及边缘区域的视差精度。实验结果表明,与一些传统算法相比,所提算法具有更高的视差精度,且视差图的边缘、纹理较其他算法更为平滑,具有更强的鲁棒性。 相似文献
12.
获取工件目标的三维表面与深度信息是实现工业立体视觉应用的关键。提出一种将两组双目视觉系统结合的方法,对随机摆放的工件多方位采集图像并获得目标工件的三维表面点云。其中,两组双目视觉系统会根据NCC(Normalized Cross Correlation)匹配算法产生工作场景的两组视差图像,去噪分割之后对其立体深度信息进行提取,其过程中采用一种新颖的转换方法,视差图像中每个坐标位置的像素点的x、y、z方向的立体深度信息分别被转化为X、Y、Z图像中对应位置上像素的灰度值。采样两组立体深度数据,共同储存到标定完成的参考相机坐标系中达到信息融合的目的。最后,对随机摆放的工业工件进行了的三维重构实验,对于相互重叠、高度、姿势都不同的零件能较好的恢复出清晰的轮廓点云,在重叠区域也能产生较为明显的层次性。 相似文献
13.
基于Panum融合区的视差图获取算法 总被引:1,自引:1,他引:0
视差图的获取既是立体图像处理的核心,也是立 体图像处理的难点。为了高效、精确 地获取立体图像的视差图,提出了一种基于Panum融合区的视差图获取算法。首先根据 人眼视觉特性的Panum融合区得到立体图像视差敏感范围的计算方法;然后根据此范围 将立体图像分割成视差敏感区和视差不敏感区,对视差不敏感区计算低精度视差图,对视差 敏感区计算高精度视差图;最后将两视差图相结合得到最终的视差图。实验结果表明,本文 所提出的算法在不影响人眼主观立体感受的情况下,计算出较高精度的视差图,同时相对于 通常的高精度视差图获取算法降低了时间开销。 相似文献
14.
15.
搭建双目平行系统完成对物体的距离测量.经过图像采集、摄像机标定、立体校正、立体匹配四个步骤得到被测物体的视差图,从而求得被测物体的三维坐标.利用两种匹配算法来进行立体匹配,为使结果对比明显,在以往黑白视差图的基础上,输出彩色视差图.同时,为提高匹配精度,做了去噪和光照对比实验.最后,对测量实验进行误差分析,以验证实验结果的准确性.结果证明:误差范围控制在1 mm之内,是有效可行的. 相似文献
16.
引入辅助任务信息有助于立体匹配模型理解相关知识,但也会增加模型训练的复杂度。为解决模型训练对额外标签数据的依赖问题,提出了一种利用双目图像的自相关性进行多任务学习的立体匹配算法。该算法在多层级渐进细化过程中引入了边缘和特征一致性信息,并采用循环迭代的方式更新视差图。根据双目图像中视差的局部平滑性和左右特征一致性构建了损失函数,在不依赖额外标签数据的情况下就可以引导模型学习边缘和特征一致性信息。提出了一种尺度注意的空间金字塔池化,使模型能够根据局部图像特征来确定不同区域中不同尺度特征的重要性。实验结果表明:辅助任务的引入提高了视差图精度,为视差图的可信区域提供了重要依据,在无监督学习中可用于确定单视角可见区域;在KITTI2015测试集上,所提算法的精度和运行效率均具有一定的竞争力。 相似文献
17.
18.
《无线电工程》2020,(2):90-96
针对双目视觉定位中对物体类别与距离远近判定的实际需求,提出了一种结合实例分割与特征点匹配的定位方法,准确地实现了目标的识别和定位。该方法通过Mask Region with Convolution Neural Network Feature(Mask R-CNN)对双目相机采集到的左图像特进行目标检测和分割,采用SURF算法提取分割区域的特征点并与右图特征点进行匹配得到视差,利用双目视差测距原理计算出目标相对于摄像头的位置。同时,针对相机自身标定误差造成在远距离情况下目标定位误差逐渐变大的问题,采用了最小二乘法对视差进行拟合。实验结果表明,该方法不仅能够精准实现目标识别,而且与未经拟合处理结果相比,平均误差值由0.183 m降低到0.106 m,定位精度得到了显著提高。 相似文献
19.
20.
提出了一种基于双目立体相机的实时集成成像拍摄系统。不同于采用传统的摄像机阵列,该系统采用双目相机对三维场景进行拍摄,有效地简化了集成成像拍摄系统的结构。该系统首先利用双目相机获取三维场景的左右视差图,然后上传到图形处理器生成三维场景的高分辨率深度图,之后利用深度图和彩色纹理图在图形处理器中并行生成新视点视差图像,并利用像素映射算法生成高分辨率微图像阵列,实现实时的集成成像显示。实验中系统获取的深度图像素数目是微软Kinect2获取深度图像素数目的4.25倍,当系统运行在1 920 pixel1 080 pixel、99视点数的环境下,可实现三维场景的实时拍摄与显示,实验结果证明了所提系统的可行性。 相似文献