共查询到10条相似文献,搜索用时 17 毫秒
1.
大视场双目视觉传感器的现场标定 总被引:10,自引:7,他引:3
分析了摄像机和双目视觉传感器的数学模型,针对大视场视觉测量应用,提出了一种基于基线尺的大视场双目视觉传感器标定方法.在测量空间内任意多次摆放基线尺,由两摄像机拍摄基线尺图像.利用基本矩阵及基线尺上两特征点之间距离的约束,采用线性解和非线性优化相结合的方法同时估计摄像机的内部参数以及双目视觉传感器的结构参数.该标定方法操作简单,标定效率高,无需初始参数即可估计双目立体传感器的全部参数.实验结果表明,该方法适合双目立体视觉传感器的现场标定,在6 000 mm×4 500 mm的范围内可以得到0.06 mm的测量精度. 相似文献
2.
针对大视场视觉测量应用,分析了摄像机和双目视觉传感器的数学模型,提出了一种基于基线尺的大视场双目视觉传感器标定方法。在测量空间内任意多次摆放基线尺,两摄像机拍摄基线尺图像。利用基本矩阵及基线尺上两特征点之间距离的约束,采用线性解和非线性优化方法结合同时估计摄像机的内部参数以及双目视觉传感器的结构参数。该标定方法操作简单,标定效率高,无需初始参数即可估计双目立体传感器的全部参数。实验结果表明该方法在6000mm×4500mm的范围内可以达到0.06mm的测量精度,适合双目立体视觉传感器的现场标定。 相似文献
3.
4.
挖掘机器人双目视觉系统标定方法与立体匹配 总被引:1,自引:0,他引:1
在挖掘机器人视觉系统实现中,摄像机标定、特征提取、立体匹配是关键环节,而立体匹配又是视觉系统中最复杂、最重要的步骤。首先分析了通用双目立体视觉模型及平行双目立体视觉模型,对挖掘机器人平行双目立体视觉系统测量方法及参数标定进行了研究。结合基于特征的匹配方法,通过对左、右图像角点的提取,实现了基于极线几何约束的特征点匹配。通过对铲斗图像匹配实验,验证了该方法能满足挖掘机器人视觉系统要求。 相似文献
5.
6.
双目立体视觉的光学标定技术 总被引:1,自引:1,他引:0
为了通过二维图像信息计算三维空间中的几何信息,对摄像机系统进行精确标定。在建立和分析双目立体视觉模型和现有摄像机标定方法的基础上,提出一种新的光学标定方法。该方法通过构建和分析双目摄像机理论模型,并改进现有的方法实现了双目立体视觉的光学标定。实验在双目摄像机平台上,采用黑方格模板和通过算法实现了光学参数的标定,使用Levenberg-Marquardt算法优化单应矩阵,并通过最大似然估计法进行参数优化,通过试验模型测定,结果显示其实际标定精度为0.050 9mm,满足双目立体视觉的测定需求。 相似文献
7.
8.
基于摄像机位姿估计的数学模型,提出了一种检测摄像机位移前后目标图像特征点的方法,通过求解摄像机发生位移前后的相对位姿矩阵来解决应用视觉图像获得点云的初始配准问题。首先,介绍了摄像机位姿估计模型,包括本质矩阵、旋转矩阵以及平移矩阵;然后,介绍了SURF算子的特征点检测、描述和匹配的方法,在此基础上面向双目视觉和单目结构光系统,分别提出了摄像机位移前后目标图像SURF特征点匹配和深度估计模型;最后,分别进行双目视觉和单目结构光系统点云的获取、位移前后目标图像特征点检测匹配和深度估计实验,应用摄像机位姿估计模型求解旋转矩阵和位移矩阵,并对位移矩阵进行统计分析剔除粗差。实验中采用基于点云空间特征点和基于图像的方法进行对比,点云对应特征点均方误差缩小至12.46mm。实验结果验证了方法的可行性,表明本文的点云初始配准方法能较好地获得点云精确配准初值。 相似文献
9.
10.
一种基于立体模板的双目视觉传感器现场标定方法 总被引:21,自引:12,他引:9
给出了一种基于立体标定模板的双目视觉摄像机内、外部参数现场标定方法.该方法采用理想小孔模型忽略摄像机镜头的非线性畸变,把透视变换矩阵中的元素作为未知数,在已知一组三维空间特征点坐标及其对应的图像点坐标时,利用线性算法求解出透视变换矩阵中的各个元素,进而得到所需的参数.最后采用立体标定模板对该标定算法进行了实验验证,用标定完成的立体视觉传感器对已知长度进行测量,相对精度达到了0.02%,取得了较为理想的结果.结果表明:该方法由于无需迭代,因此计算速度快,在测量现场只需摆放一次标定模板即可完成标定,可高精度地实现摄像机内、外部参数的现场标定. 相似文献