共查询到20条相似文献,搜索用时 31 毫秒
1.
2.
当前的汽车安全辅助驾驶和无人驾驶汽车是图像领域的研究热点,针对汽车在启动或行驶时车前存在行人可能导致的安全问题,着重研究了基于双目视觉的车前行人检测方法。进行了双目相机的相机标定和立体标定;通过改进后半全局立体匹配算法获取深度图,确定车前行人所处位置的感兴趣区域(Region of Interest, ROI),剔除冗余的背景信息;分割并提取了图像的降维梯度直方图(Histogram of Gradients, HOG)特征信息;将特征输入到支持向量机(Support Vector Machine, SVM)分类器训练,检测并标记出车前的行人目标。实验证明,所提算法对车前场景下的动态行人可以更为有效地检测,具备更优的检率精度、时效性和鲁棒性。 相似文献
3.
双目相机标定是研究立体视觉的基础工作,标定的精度是视觉测量精度的关键。图像角点提取是相机标定的基础,但在现实应用场景中,外界影响使获取的图像不清晰,导致检测到的角点精度低,从而影响标定的精度。因此,提出一种基于超分辨率亚像素角点检测的端到端算法,从特征级解决低质量角点检测问题。首先,应用盲超分部分估计低分辨率图像模糊核,融合低分辨率图像特征重建出高分辨率图;然后,在此基础上得到角点亚像素位置;最后对双目相机进行高精度标定,并用测距实验对其进行检验。实验结果表明,所提基于超分辨的亚像素角点检测方法在真实场景下具有优越性。 相似文献
4.
5.
6.
《无线电工程》2020,(2):90-96
针对双目视觉定位中对物体类别与距离远近判定的实际需求,提出了一种结合实例分割与特征点匹配的定位方法,准确地实现了目标的识别和定位。该方法通过Mask Region with Convolution Neural Network Feature(Mask R-CNN)对双目相机采集到的左图像特进行目标检测和分割,采用SURF算法提取分割区域的特征点并与右图特征点进行匹配得到视差,利用双目视差测距原理计算出目标相对于摄像头的位置。同时,针对相机自身标定误差造成在远距离情况下目标定位误差逐渐变大的问题,采用了最小二乘法对视差进行拟合。实验结果表明,该方法不仅能够精准实现目标识别,而且与未经拟合处理结果相比,平均误差值由0.183 m降低到0.106 m,定位精度得到了显著提高。 相似文献
7.
根据双目立体视觉模型,搭建一个实验室专用的高度测量系统.首先使用Matlab自带的工具箱对双目相机进行多次标定,获取实验所需的诸多参数,然后通过立体校正技术建立修正后的世界坐标与像素坐标之间的关系方程.在VS2015结合OpenCV的编程环境下,利用立体匹配算法和视差理论获取目标表面的三维空间信息.最后通过选定同一目标... 相似文献
8.
随着智能制造技术的快速发展,汽车制造也已逐步向少人化、无人化方向发展,而视觉技术的应用更是加快了汽车生产线无人化的进程。对双目视觉进行研究,相机平行布置并安装在机器人末端。通过以太网分别获取左右相机二维图像并上传到上位机,使用特征提取算法提取标定板上特征点的像素坐标导入标定模型计算出双目相机内外参数并生成相应的图像矫正矩阵,利用矫正矩阵分别矫正左右相机二维图像以消除镜头畸变;使用图像去噪、图像二值化化、特征提取、极线约束及模板匹配算法,计算出零件上特征点在左右图像上的视差,采用双目视差测距原理,计算特征点在相机坐标系下的三维坐标。通过眼在手上的手眼标定方式标定出相机坐标系到机器人工具坐标系的旋转矩阵,采用SVD奇异值分解算法计算模型坐标系到目标零件坐标系的偏移矩阵,通过坐标系变换算法将零件的偏移矩阵转换为机器人工具坐标系的偏移,再使用TCP/IP以太网通讯发送偏移量给机器人,从而实现机器人引导定位功能。测试结果表明,该双目视觉引导系统可满足基本的零件定位需求。 相似文献
9.
基于双目视觉的直升机旋翼桨叶共锥度检测法 总被引:1,自引:0,他引:1
提出了一种基于双目视觉的直升机旋翼桨叶共锥度检测方法。首先,采用平面标定算法对双目视觉系统进行标定,获取摄像机内外参数;其次,采集不同桨叶的立体图像对,并用Bouguet算法对其进行校正,获取重投影矩阵;然后,对立体图像对中的标记点进行检测与匹配,获取标记点的视差;最后,根据双目视觉测量原理计算出桨尖距地面的高度,实现桨叶共锥度检测。通过对旋翼塔进行多次测量实验,结果表明该方法具有动态测量、非接触式、操作简单、危险性小和精度高的优点。 相似文献
10.
针对基于尺度空间对图象保持不变性的SIFT算法在双目立体视觉应用时实时性差、误匹配等问题,提出一种运用Harris-SIFT算法进行双目立体视觉定位方法.通过介绍双目立体视觉的模型原理,利用Harris-SIFT算法从左右摄像机分别获取的图像中检测目标,并获取匹配目标的特征点,对两幅图像中目标物体的坐标标定,通过计算可得到目标物体的深度距离,还原其三维信息.实验证明,运用Harris-SIFT算法使该系统的实时性能和距离精度得到提高. 相似文献
11.
12.
获取工件目标的三维表面与深度信息是实现工业立体视觉应用的关键。提出一种将两组双目视觉系统结合的方法,对随机摆放的工件多方位采集图像并获得目标工件的三维表面点云。其中,两组双目视觉系统会根据NCC(Normalized Cross Correlation)匹配算法产生工作场景的两组视差图像,去噪分割之后对其立体深度信息进行提取,其过程中采用一种新颖的转换方法,视差图像中每个坐标位置的像素点的x、y、z方向的立体深度信息分别被转化为X、Y、Z图像中对应位置上像素的灰度值。采样两组立体深度数据,共同储存到标定完成的参考相机坐标系中达到信息融合的目的。最后,对随机摆放的工业工件进行了的三维重构实验,对于相互重叠、高度、姿势都不同的零件能较好的恢复出清晰的轮廓点云,在重叠区域也能产生较为明显的层次性。 相似文献
13.
为提高双目相机标定的精度和效率,本文提出了一种基于新型编码立体靶标并结合高精度参数优化的双目相机标定方法。新型编码立体靶标通过整合4个空间姿态不同的编码平面靶标,只需拍摄一次即可完成双目相机标定,有效提高了标定效率;每个编码平面靶标内设置多个编码单元,在采集到局部靶标图像时仍能获得高精度标定结果;采用高精度参数优化方法,建立包含重投影约束、标准长度约束和共面约束的目标函数,有效提高了双目相机的标定精度。实验结果表明:相比于张氏标定方法,本文所提标定方法获得的左右相机平均绝对重投影误差分别降低了55.42%和57.22%,平均绝对标准长度误差降低了41.28%,平均绝对共面误差降低了63.04%。通过多次测量不同规格的标准量块,进一步验证了本文所提标定方法的可行性和有效性。 相似文献
14.
系统采用双目立体视觉原理,通过捕捉、处理弹落击起的烟尘图像精确地获取弹着点信息。给出了一种适于野外环境构建的视觉测量模型,并提出了一种仅对焦距及光轴水平偏角进行现场标定的相机参数快速获取方法。采用序列图像实时帧间差分阈值法作为主要的图像处理手段,通过构造高斯背景统计模型获得精确的分割阈值。为排除野外环境的各种干扰,提出了依据时空相关性检测的帧间多级差分方法,为解决烟尘快速飘移对后续弹点探测的影响,给出了一种伪目标边缘跟踪算法。远程视觉传感器距靶心1.2 km对?准400 m靶区实测时,图像处理时间小于8 ms,系统响应时间小于75 ms,报靶精度优于2 m,完全满足实时准确报靶的要求。 相似文献
15.
基于双目视觉的自主水下航行器在水下巡航过程中,由于水体对光线的衰减效应和悬浮颗粒对光线的散射作用,双目摄像机获取的图像存在对比度低、颜色失真等问题,导致水下障碍物定位的精度较低。针对以上问题,文中采用红通道先验复原算法提高水下成像质量,根据双目相机标定参数获取障碍物的双目视差图,并提出了一种基于深度视差图融合的水下障碍物定位方法。该方法通过融合深度视差图与水下复原轮廓图,对融合图像进行凸多边形检测,获取障碍物的轮廓,基于轮廓信息进行障碍物的有效深度信息提取,实现障碍物的空间定位。水下双目定位实验结果表明,文中所提方法可以使双目立体匹配的效果更理想,能够有效提高水下障碍物定位的精度。 相似文献
16.
17.
使用立体视觉系统可确定任意物体的三维轮廓及其表面任意点的位置信息和深度信息。本文将立体视觉运用于人体头部目标检测,设计了一种基于图像深度信息处理的人体头部识别系统。系统采用Xtion摄像机采集场景的深度图像,并对其进行特征分析,根据深度图像的特点以及头部的特征确定头部目标区域。再对目标区域采用Mean Shift算法进行聚类处理,得到清晰的图像边缘。最后通过基于动态阈值的一维熵函数分割法实现头部的分割识别。该系统可快速锁定目标区域,减少了算法的计算量,大大提高了系统的识别速度。此外,采集深度图像的xtion摄像机悬挂在目标场景的正上方,因而较好的解决了目前人体目标检测受遮挡的问题。经实验论证,该系统有较高的识别精度。 相似文献
18.
在空间站机械臂中,双目视觉系统作为其重要组成部分,能够引导机械臂自主完成对目标的定位和捕获。内外参标定技术是双目相机高精度获取合作目标位置、方向等运动信息进而进行三维重建的首要前提和重要保障。文中提出了一种基于光束法平差算法的双目视觉系统内外参标定技术,采用三维靶标场作为标定目标,并将高精度测角设备经纬仪作为精测基准,通过坐标转换解算分步得到相机的内、外参数。实验表明,该方法标定的相机内参重投影误差小于0.5个像元,外参测试误差为±0.19 mm,有较高的测试精度和鲁棒性,为机械臂实施视觉闭环自主捕获合作目标提供可靠依据。 相似文献
19.
提出了一种基于双目立体相机的实时集成成像拍摄系统。不同于采用传统的摄像机阵列,该系统采用双目相机对三维场景进行拍摄,有效地简化了集成成像拍摄系统的结构。该系统首先利用双目相机获取三维场景的左右视差图,然后上传到图形处理器生成三维场景的高分辨率深度图,之后利用深度图和彩色纹理图在图形处理器中并行生成新视点视差图像,并利用像素映射算法生成高分辨率微图像阵列,实现实时的集成成像显示。实验中系统获取的深度图像素数目是微软Kinect2获取深度图像素数目的4.25倍,当系统运行在1 920 pixel1 080 pixel、99视点数的环境下,可实现三维场景的实时拍摄与显示,实验结果证明了所提系统的可行性。 相似文献