共查询到16条相似文献,搜索用时 93 毫秒
1.
针对普通双目立体摄像机在机器人立体视觉仿真中的不足,提出一种复眼立体摄像系统。通过对其原理分析,找出被摄目标的深度、方位与摄像机之间的几何关系,推出计算公式,给出其在机器人视觉仿真中的应用方案。该系统提高了机器人视觉仿真精度,应用方案简单可行。 相似文献
2.
3.
基于计算机视觉的深度估计方法 总被引:2,自引:0,他引:2
深度估计方法可分为主动视觉和被动视觉两类.介绍了被动视觉测距中的五种深度估计方法,包括立体视觉、运动测距、描影法、聚焦法和散焦法,分析了各自的成像原理、数学模型和测量方法.最后,对基于计算机视觉的深度估计方法进行总结,分析了现有测量方法各自的局限性,提出算法进一步改进的方向是应用计算机视觉系统中需要的不同模板,联合依赖... 相似文献
4.
基于三维特征和结构相似度的图像质量评价方法 总被引:3,自引:2,他引:1
分析了人眼视觉特性、双眼视差异信息等三维特征,将立体视觉与图像的结构相似度(SSIM)相结合,提出了一种新的立体图像质量评价方法。该方法考虑了立体图像的亮度、纹理细节和空间位置等因素对人感知立体效果的影响,利用加权平均结构相似性(WMSS)联合统计学方法得到评价初值,用包含三维景物深度信息的双眼视差信息进行修正,作为立体图像质量的评价结果。实验表明,该方法符合人眼视觉特性,与主观评价(MOS)的一致性较好。 相似文献
5.
双目立体视觉是机器视觉的重要分支之一,其通过直接模拟人眼观察和图像处理的方式来获取探测目标的深度信息。这种非接触式的测量方法具有速度快、精度高、操作简单等特点,但是对于不同距离的目标,特别是远距离目标难以获取深度信息。提出了一种基于多基线双目立体视觉的远距离目标三维点云成像技术,该方法通过可变基线实现对不同距离目标的点云成像。实验结果表明,该方法能有效探测500 m^4 000 m范围内目标的深度信息,实现三维点云成像,突破了双目立体视觉远距离三维成像的技术难点,同时形成的三维点云与激光三维成像雷达的数据格式一致,为未来激光三维成像雷达技术与立体视觉技术的点云融合,优势互补提供了借鉴。 相似文献
6.
使用立体视觉系统可确定任意物体的三维轮廓及其表面任意点的位置信息和深度信息。本文将立体视觉运用于人体头部目标检测,设计了一种基于图像深度信息处理的人体头部识别系统。系统采用Xtion摄像机采集场景的深度图像,并对其进行特征分析,根据深度图像的特点以及头部的特征确定头部目标区域。再对目标区域采用Mean Shift算法进行聚类处理,得到清晰的图像边缘。最后通过基于动态阈值的一维熵函数分割法实现头部的分割识别。该系统可快速锁定目标区域,减少了算法的计算量,大大提高了系统的识别速度。此外,采集深度图像的xtion摄像机悬挂在目标场景的正上方,因而较好的解决了目前人体目标检测受遮挡的问题。经实验论证,该系统有较高的识别精度。 相似文献
7.
8.
共轴立体视觉测距是一种深度恢复的新方法,利用光轴处于同一直线的两架相机,从单一角度获取图像信息,将三维空间的深度信息转换成二维空间的缩放视差,从而通过图像旋转与缩放、特征点提取、图像匹配、中心点估计等技术恢复深度信息。该技术具有测量系统体积小、实时性强等特点。介绍了该技术的深度恢复公式和算法,并设计了共轴立体摄影测距传感器,用实景实验和3DSMAX模拟实验对该技术进行了验证。试验结果表明,中长距离深度测量精度优于0.1%。 相似文献
9.
针对基于尺度空间对图象保持不变性的SIFT算法在双目立体视觉应用时实时性差、误匹配等问题,提出一种运用Harris-SIFT算法进行双目立体视觉定位方法.通过介绍双目立体视觉的模型原理,利用Harris-SIFT算法从左右摄像机分别获取的图像中检测目标,并获取匹配目标的特征点,对两幅图像中目标物体的坐标标定,通过计算可得到目标物体的深度距离,还原其三维信息.实验证明,运用Harris-SIFT算法使该系统的实时性能和距离精度得到提高. 相似文献
10.
11.
目标物体的三维测量是双目立体视觉的一项重要任务。基于视差的平行摄像机模型是最常见的用于三维重建的双目摄像机模型。一般双目立体摄像机不是严格平行的,所以采用上述方式进行三维重建时需要进行极线校正。提出了一种新的用于三维测量的双目摄像机模型,该模型针对一般常见的非平行的会聚立体摄像机模型。采用该模型进行目标物体的三维测距时,根据摄像机标定得到的相对外参,即可快速得到目标物体的深度信息。同时,本文从分辨率的角度对提出的深度测量方法进行了精度分析。实验结果验证了提出方法的有效性和可靠性。 相似文献
12.
获取工件目标的三维表面与深度信息是实现工业立体视觉应用的关键。提出一种将两组双目视觉系统结合的方法,对随机摆放的工件多方位采集图像并获得目标工件的三维表面点云。其中,两组双目视觉系统会根据NCC(Normalized Cross Correlation)匹配算法产生工作场景的两组视差图像,去噪分割之后对其立体深度信息进行提取,其过程中采用一种新颖的转换方法,视差图像中每个坐标位置的像素点的x、y、z方向的立体深度信息分别被转化为X、Y、Z图像中对应位置上像素的灰度值。采样两组立体深度数据,共同储存到标定完成的参考相机坐标系中达到信息融合的目的。最后,对随机摆放的工业工件进行了的三维重构实验,对于相互重叠、高度、姿势都不同的零件能较好的恢复出清晰的轮廓点云,在重叠区域也能产生较为明显的层次性。 相似文献
13.
将非相似成像理论引入到立体视觉理论中,探索了一种非相似立体视觉机制,建立了空间目标三维定位模型和深度精度模型。根据流行的非相似等距投影理论,对非相似立体视觉三维定位方程进行了数理推导,并实验验证了所建模型的有效性。结果表明:利用三维定位模型可以准确地获取大空域场景中不同深度的多个目标位置信息,定位误差随着目标深度的增大而缓慢变大,在30 m深度处的定位误差达到1.32 m,误差变化规律与深度精度模型结果吻合良好,且误差值远小于相似立体视觉模型的定位误差。所建模型的优势是无需对非相似畸变图像进行校正,便可较好地得到空间目标的三维坐标,研究工作对于拓展非相似成像理论在大空域态势感知、目标侦察等领域的应用具有重要意义。 相似文献
14.
When dealing with depth recovery, the estimation of depth from defocus information provides an alternative method to stereo vision. A new depth from defocus method is described that needs only an estimation of the background together with the image of the object of interest, instead of the two images which traditional depth from defocus algorithms require. 相似文献
15.
小型机器人传统视觉方法对环境适应性差。提出了一种基于双目超大视场红外相机的环境感知方法。利用大视场镜头高阶奇次多项式模型,建立了超大视场红外双目立体成像的水平和垂直视差数字模型。以视差模型为基础建立超大视场红外双目视觉模型,研究了超大视场红外双目系统立体视觉范围和阈值。搭建了视场为170°×128°的超大视场红外立体视觉系统,分析了立体视觉范围及阈值应用于小型机器人视觉的可行性。同时,针对照度不均、雾霾等条件下的场景开展超大视场红外双目立体视觉实验研究,构建了双目图像标准视差图,结果表明,超大视场红外双目立体视觉系统对复杂场景具有良好的适应性,基本能够满足小型机器人视觉系统需求。 相似文献
16.
《IEEE transactions on image processing》2009,18(4):813-830