首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 187 毫秒
1.
目的 目前对线阵相机的几何参数标定方法比较少,而且已有标定方法都需要特殊、高精度要求的设备,为此提出一种基于二轴转台测角法的线阵相机标定方法,通过简单的设备高精度求取线阵相机的内参数和畸变参数。方法 通过简化面阵相机成像模型,建立线阵相机成像模型且推导出参数计算公式,提出测角法标定流程并设计了专门的标定板,利用图像边缘检测得到标定板黑白条纹的边缘点坐标,结合二轴转台的角度信息,代入成像模型中,主要采用最小二乘法和迭代优化算法,求取线阵相机的内参和畸变参数。同时指出了该方法的适用性和标定精度依赖于转台精度、镜头视场角和感光器件分辨率。结果 对3只不同焦距的镜头进行标定实验,分析了内参数和畸变参数迭代优化过程,焦距的标定精度优于5 μm、主点的标定精度优于3 μm,与其他文献中高成本方法进行相比,处于同一数量级。结论 提出一种新的线阵相机几何参数标定方法,该方法利用低成本二轴转台和黑白条纹标定板即可高精度标定出线阵相机几何参数。该方法的适用性依赖转台精度、镜头视场角和感光器件分辨率,对于步长为0.012 9°的转台和分辨率为1 436的线阵相机,最多只能标定焦距为16 mm的镜头,而焦距更长的镜头需要更高精度的转台。  相似文献   

2.
目的 RGB-D相机的外参数可以被用来将相机坐标系下的点云转换到世界坐标系的点云,可以应用在3维场景重建、3维测量、机器人、目标检测等领域。 一般的标定方法利用标定物(比如棋盘)对RGB-D彩色相机的外参标定,但并未利用深度信息,故很难简化标定过程,因此,若充分利用深度信息,则极大地简化外参标定的流程。基于彩色图的标定方法,其标定的对象是深度传感器,然而,RGB-D相机大部分则应用基于深度传感器,而基于深度信息的标定方法则可以直接标定深度传感器的姿势。方法 首先将深度图转化为相机坐标系下的3维点云,利用MELSAC方法自动检测3维点云中的平面,根据地平面与世界坐标系的约束关系,遍历并筛选平面,直至得到地平面,利用地平面与相机坐标系的空间关系,最终计算出相机的外参数,即相机坐标系内的点与世界坐标系内的点的转换矩阵。结果 实验以棋盘的外参标定方法为基准,处理从PrimeSense相机所采集的RGB-D视频流,结果表明,外参标定平均侧倾角误差为-1.14°,平均俯仰角误差为4.57°,平均相机高度误差为3.96 cm。结论 该方法通过自动检测地平面,准确估计出相机的外参数,具有很强的自动化,此外,算法具有较高地并行性,进行并行优化后,具有实时性,可应用于自动估计机器人姿势。  相似文献   

3.
目的 针对现有的Kinect传感器中彩色相机和深度相机标定尤其是深度相机标定精度差、效率低的现状,本文在现有的基于彩色图像和视差图像标定算法的基础上,提出一种快速、精确的改进算法。方法 用张正友标定法标定彩色相机,用泰勒公式化简深度相机中用于修正视差值的空间偏移量以简化由视差与深度的几何关系构建的视差畸变模型,并以该模型完成Kinect传感器的标定。结果 通过拍摄固定于标定平板上的标定棋盘在不同姿态下的彩色图像和视差图像,完成Kinect传感器的标定,获得彩色相机和深度相机的畸变参数及两相机之间的旋转和平移矩阵,标定时间为116 s,得到彩色相机的重投影误差为0.33,深度相机的重投影误差为0.798。结论 实验结果表明,该改进方法在保证标定精度的前提下,优化了求解过程,有效提高了标定效率。  相似文献   

4.
激光雷达的点云和相机的图像经常被融合应用在多个领域。准确的外参标定是融合两者信息的前提。点云特征提取是外参标定的关键步骤。但是点云的低分辨率和低质量会影响标定结果的精度。针对这些问题,提出一种基于边缘关联点云的激光雷达与相机外参标定方法。首先,利用双回波提取标定板边缘关联点云;然后,通过优化方法从边缘关联点云中提取出与实际标定板尺寸大小兼容的标定板角点;最后,将点云中角点和图像中角点匹配。用多点透视方法求解激光雷达与相机之间的外参。实验结果表明,该方法的重投影误差为1.602px,低于同类对比方法,验证了该方法的有效性与准确性。  相似文献   

5.
目的 为解决车辆对车道标记的遮挡问题,提出一种新的背景提取算法,同时基于透视变换实现了城市交叉路口的多车道标定。方法 首先,通过均值与帧间差分方法的融合,进行城市交叉路口的背景稳定与更新;然后,利用Canny算子及Hough直线检测得到各类直线;其次,基于透视变换、聚类分析和先验知识建立了车道线的筛选数学模型,实现了车道线标定;最后,通过实验对算法进行了验证。结果 采用10min长度、分辨率为2592×2048像素的某城市交叉路口实际监控视频进行交叉路口背景提取。本文算法的背景提取准确率比均值法和传统高斯混合模型法分别提升20%和30%左右,车道线标定也优于其他类似方法。结论 算法具有收敛速度快、准确率较高、稳定性较好等特点,在车流量大时可快速更新并消除车辆虚影,适用于光照条件正常的城市交叉种口的车道线标定。  相似文献   

6.
目的 云台相机因监控视野广、灵活度高,在高速公路监控系统中发挥出重要的作用,但因云台相机焦距与角度不定时地随监控需求变化,对利用云台相机的图像信息获取真实世界准确的物理信息造成一定困难,因此进行云台相机非现场自动标定方法的研究对高速公路监控系统的应用具有重要价值。方法 本文提出了一种基于消失点约束与车道线模型约束的云台相机自动标定方法,以建立高速公路监控系统的图像信息与真实世界物理信息之间准确描述关系。首先,利用车辆目标运动轨迹的级联霍夫变换投票实现纵向消失点的准确估计,其次以车道线模型物理度量为约束,并采用枚举策略获取横向消失点的准确估计,最终在已知相机高度的条件下实现高速公路云台相机标定参数的准确计算。结果 将本文方法在不同的场景下进行实验,得到在不同的距离下的平均误差分别为4.63%、4.74%、4.81%、4.65%,均小于5%。结论 对多组高速公路监控场景的测试实验结果表明,本文提出的云台相机自动标定方法对高速公路监控场景的物理测量误差能够满足应用需求,与参考方法相比较而言具有较大的优势和一定的应用价值,得到的相机内外参数可用于计算车辆速度与空间位置等。  相似文献   

7.
基于单幅图片的相机完全标定   总被引:1,自引:0,他引:1  
现有相机标定方法的标定过程比较繁琐,不利于标定相机的广泛使用。为此,从摄像机镜头畸变矫正着手,结合标定板信息及消失点约束,提出一种基于单张图片的相机标定方法。利用非线性迭代得到相机镜头的畸变系数,通过线性求解得出相机的内参,直接计算得到相机的外参,从而实现仅需拍摄单张标定板图片的相机完全标定。实验结果表明,该方法在标定板与视平面夹角小于45°的情况下均能成功标定,并且重投影误差小于0.3像素。  相似文献   

8.
目的 鱼眼镜头是发展轻、小型全方位视觉系统的理想光学传感器,但由于镜头焦距短、视场大及光学原理约束,鱼眼图像存在严重畸变,为此提出一种高精度、应用方式灵活的鱼眼镜头内部参数标定方法,以期将鱼眼图像转换成符合人眼视觉习惯的平面透视投影图像。方法 从球面透视投影模型出发,首先分析给出空间直线在水平面上的理想投影椭圆约束,进而结合椭圆严格几何特性建立误差方程对鱼眼相机等效焦距f,纵横比A及径向畸变参数k1,k2进行最小二乘估计,最后利用估计参数对鱼眼图像进行立方盒展开实现平面透视纠正目的。结果 对某型号定焦鱼眼相机的棋盘格影像多视标定及网上鱼眼图像单视自标定结果表明,本文方法标定参数对鱼眼图像不同区域的平面透视纠正效果稳健、精度高。多视标定参数均方根误差(RMSE)约0.1像素,纠正影像上直线拟合误差RMSE约0.2像素,总体效果略优于对比文献方法;单视自标定参数误差RMSE约0.3像素,影像纠正范围、直线透视特性保持明显优于对比文献方法及商业软件DXO(DXO Optics Pro)。结论 本文方法标定参数少、计算过程简单且对标定参照物要求不高,对于具有大量直线的人工场景理论上可实现自标定,应用价值较高。  相似文献   

9.
基于张氏标定原理的传统双目相机标定方法在单一背景下标定精度高,但在复杂背景下不能精确提取特征点坐标,导致相机标定精度受到影响。文中提出一种基于Halcon标定靶感兴趣区域约束的透视变换方法,可以从复杂背景中精确提取特征点坐标,提高双目相机标定精度。首先通过改进的角点提取方法从背景中提取Halcon标定靶上的感兴趣区域,利用透视变换和最小二乘法提取特征点的精确坐标;然后匹配左、右图像中同名的特征点,利用张氏标定原理计算双目相机的参数。实验表明,利用文中方法标定的相机参数,计算特征点平均重投影精度达0.01像素,相比于传统方法平均重投影精度提高0.02像素,提高了双目相机参数标定的精度。  相似文献   

10.
目的 传统的单目视觉SLAM(simultaneous localization and mapping)跟踪失败后需要相机重新回到丢失的位置才能重定位并恢复建图,这极大限制了单目SLAM的应用场景。为解决这一问题,提出一种基于视觉惯性传感器融合的地图恢复融合算法。方法 当系统跟踪失败,仅由惯性传感器提供相机位姿,通过对系统重新初始化并结合惯性传感器提供的丢失部分的相机位姿将丢失前的地图融合到当前的地图中;为解决视觉跟踪丢失期间由惯性测量计算导致的相机位姿误差,提出了一种以关键帧之间的共视关系为依据的跳跃式的匹配搜索策略,快速获得匹配地图点,再通过非线性优化求解匹配点之间的运动估计,进行误差补偿,获得更加准确的相机位姿,并删减融合后重复的点云;最后建立前后两个地图中关键帧之间与地图点之间的联系,用于联合优化后续的跟踪建图过程中相机位姿和地图点位置。结果 利用Euroc数据集及其他数据进行地图精度和地图完整性实验,在精度方面,将本文算法得到的轨迹与ground truth和未丢失情况下得到的轨迹进行对比,结果表明,在SLAM系统跟踪失败的情况下,此方法能有效解决系统无法继续跟踪建图的问题,其精度可达厘米级别。在30 m2的室内环境中,仅有9 cm的误差,而在300 m2工厂环境中误差仅有7 cm。在完整性方面,在相机运动较剧烈的情况下,恢复地图的完整性优于ORB_SLAM的重定位算法,通过本文算法得到的地图关键帧数量比ORB_SLAM多30%。结论 本文提出的算法在单目视觉SLAM系统跟踪失败之后,仍然能够继续跟踪建图,不会丢失相机轨迹。此外,无需相机回到丢失之前的场景中,只需相机观察到部分丢失前场景,即可恢复融合所有地图。本文算法不仅保证了恢复地图的精度,还保证了建图的完整性。与传统的重定位方法相比,本文算法在系统建图较少时跟踪失败的情况下效果更好。  相似文献   

11.
A novel algorithm for vehicle average velocity detection through automatic and dynamic camera calibration based on dark channel in homogenous fog weather condition is presented in this paper. Camera fixed in the middle of the road should be calibrated in homogenous fog weather condition, and can be used in any weather condition. Unlike other researches in velocity calculation area, our traffic model only includes road plane and vehicles in motion. Painted lines in scene image are neglected because sometimes there are no traffic lanes, especially in un-structured traffic scene. Once calibrated, scene distance will be got and can be used to calculate vehicles average velocity. Three major steps are included in our algorithm. Firstly, current video frame is recognized to discriminate current weather condition based on area search method (ASM). If it is homogenous fog, average pixel value from top to bottom in the selected area will change in the form of edge spread function (ESF). Secondly, traffic road surface plane will be found by generating activity map created by calculating the expected value of the absolute intensity difference between two adjacent frames. Finally, scene transmission image is got by dark channel prior theory, camera’s intrinsic and extrinsic parameters are calculated based on the parameter calibration formula deduced from monocular model and scene transmission image. In this step, several key points with particular transmission value for generating necessary calculation equations on road surface are selected to calibrate the camera. Vehicles’ pixel coordinates are transformed to camera coordinates. Distance between vehicles and the camera will be calculated, and then average velocity for each vehicle is got. At the end of this paper, calibration results and vehicles velocity data for nine vehicles in different weather conditions are given. Comparison with other algorithms verifies the effectiveness of our algorithm.  相似文献   

12.
On board camera is the most important information source for driver assistant application which is based on computer vision. One problem for on board camera is that the external parameters are easy to be changed when moving on the road. Traditional method either calibrates external parameters offline or calibrates external parameters semi-online, which both need human intervention. By observation, it is found that corner connection of dotted road lane can form two groups of parallel lines. Using this geometric characteristics and through theoretical derivation, a novel online camera external parameter calibration method is proposed which focus on the situation when vehicle is moving. The pro of this method is that it maintains relatively high calculation accuracy and more important, it does not require any human intervention in whole calibration process. Experimental and comparison results show that this method is simple and have accurate results which fully meet the requirements of practical application.  相似文献   

13.
摄像机外参数自动标定的目的是通过自动的方法获得车载摄像机部分外参数.研究基于自主驾驶汽车的运动学模型、高速公路的道路模型以及车载摄像机的成像模型,进行了车载摄像机外参数的在线自动标定方法研究,并利用车体运动学模型作为扩展Kalman滤波(EKF)的状态模型,并将图像坐标系下与车体坐标系下道路参数间的非线性关系,作为EKF的观测模型进行扩展Kalman滤波.仿真与实车试验证明,方法实时检测了滤波结果的正确性,自动标定了最新的摄像机外参数,使得视觉导航系统能够自动适应摄像机姿态变化带来的影响.  相似文献   

14.
针对针孔相机和三维激光雷达的外参标定问题,提出了一种新的方法:利用相机坐标系和激光坐标系下棋盘面的对应性,将外参标定转换为三维空间中旋转、缩放矩阵的求解问题.每帧数据可以提供4个约束,最少只需3帧数据可求解外参矩阵.方法原理简单易懂,直观明了地解释了失效退化原因.仿真实验与真实数据实验表明:提出的方法可以得到高精度的外参矩阵,且在采样帧数较少的情况下依旧可以获得很好的标定效果.  相似文献   

15.
针对采用固定摄像的路况监视系统无法观看自如的缺点,提出了基于云台摄像的实时车速检测算法.建立了简化的摄像机参数模型,提取了线性拟合后的车道图像特征参数,并利用Kluge曲线模型和随机霍夫变换实现了像平面车道分割线的二维重建和云台摄像机的标定;应用自适应背景减除、扩展Kalman滤波器等方法,提取了帧运动域及域中目标轮廓,从而实现了车辆的精确定位、跟踪,以至实时速度检测.该算法已试用于工程实践,具有较好的鲁棒性.  相似文献   

16.
一种基于校正误差的立体相机标定算法   总被引:1,自引:0,他引:1  
立体相机的标定是一个精确求解各个相机内参数以及相机之间关系参数的过程.它是三维重建的基础,其标定精度的好坏直接影响立体重建的结果.为此提出了一种使用校正误差作为代价函数的立体相机标定算法.该算法首先使用传统的基于重投影误差的方法对单个相机的内参数进行标定,然后利用校正误差完成对相机之间关系参数的标定求解.由于校正误差的计算只与相机内参数以及关系参数有关,可以避免在标定过程中使用难以精确标定的相机外参数.实验结果表明本算法能够有效的提高立体相机标定的精度.  相似文献   

17.
Pan–tilt–zoom (PTZ) cameras have been widely used in recent years for monitoring and surveillance applications. These cameras provide flexible view selection as well as a wider observation range. This makes them suitable for vision-based traffic monitoring and enforcement systems. To employ PTZ cameras for image measurement applications, one first needs to calibrate the camera to obtain meaningful results. For instance, the accuracy of estimating vehicle speed depends on the accuracy of camera calibration and that of vehicle tracking results. This paper presents a novel calibration method for a PTZ camera overlooking a traffic scene. The proposed approach requires no manual operation to select the positions of special features. It automatically uses a set of parallel lane markings and the lane width to compute the camera parameters, namely, focal length, tilt angle, and pan angle. Image processing procedures have been developed for automatically finding parallel lane markings. Interesting experimental results are presented to validate the robustness and accuracy of the proposed method.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号