首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 703 毫秒
1.
大型自由曲面移动式三维视觉测量系统   总被引:1,自引:1,他引:1  
本文介绍了一种移动式三维视觉测量系统,用于大型物体自由曲面的测量。传感器采用双目立体视觉方式,并结合编码结构光技术,使匹配过程简化。传感器移动到大型物体周围对各局部区域进行测量。采用一个平面靶标作为中介,建立了传感器位姿变换矩阵的优化目标函数,根据靶标上多个特征点求解出该矩阵,即拼接矩阵。传感器在各个位置所测三维数据通过拼接矩阵统一到全局坐标系下。视觉测量系统在2个位置对维纳斯石膏像进行了测量,并进行拼接。结果表明,该测量系统操作简单,适用范围广;x、y、z坐标拼接RMS误差分别为0.038mm、0.022mm和0.135mm。  相似文献   

2.
基于单经纬仪的视觉测量三维数据拼接方法   总被引:1,自引:0,他引:1  
本文针对大型自由曲面三维视觉测量中的数据拼接问题,建立了经纬仪透视投影模型,提出了以平面靶标为中介坐标系,以经纬仪坐标系为全局坐标系的三维数据拼接方法。在大型自由曲面的若干测量子区域附近放置一个平面靶标,通过视觉传感器拍摄平面靶标上的特征点,求得视觉传感器坐标系到靶标坐标系的变换矩阵;通过经纬仪观测靶标上的特征点,求得靶标坐标系到经纬仪坐标系的变换矩阵。因此,可求得视觉传感器坐标系到经纬仪坐标系的变换矩阵。将视觉传感器所测得的各子区域的三维数据统一到了经纬仪坐标系下,即完成了大型自由曲面的全局测量。经实验验证,数据拼接的RMS误差小于0.487mm。  相似文献   

3.
为了实现大型自由曲面的三维面型测量,提出了采用光学定位跟踪技术的数据拼接方法。平面靶标作为中介,固定在测量系统上,靶标上的特征点在测量坐标系中的坐标通过中介坐标转换法获得。利用双目立体视觉构建跟踪定位系统,并以跟踪坐标系为全局坐标系,获取平面靶标上特征点的三维全局坐标,求得测量坐标系到全局坐标系的转换矩阵,将测量传感器在不同位置下所测的各子区域的三维数据统一到全局坐标系下,完成大型自由曲面的全局测量。对平面靶标上100个点进行两次测量,实验结果表明:单次测量精度为0.08mm,拼接均方误差小于0.237mm。该方法操作简单、可行,能满足一般的精度要求。  相似文献   

4.
采用立体视觉实现子孔径拼接测量的工件定位   总被引:1,自引:0,他引:1  
为了实现大口径光学元件的子孔径拼接干涉测量,提出了采用立体视觉进行光学元件位姿测量的方法,建立了基于双目视觉的子孔径拼接测量系统。介绍了圆形子孔径拼接干涉测量的原理,基于齐次坐标变换分析了其对工件定位的要求;引入了立体视觉辅助测量系统,建立了通用测量模型,利用双目视觉获取不同子孔径测量时与工件刚性连接的特征点的三维全局坐标,在完成全部子孔径测量后利用四元数法求取各子孔径相对于全局坐标系的转换矩阵,然后利用优化拼接算法将各子孔径数据统一到全局坐标系下,完成大口径光学元件的全局测量。最后利用该系统实现了对口径为150mm平面和100mm球面的检测。实验结果证明,在本系统中,立体视觉系统平移定位精度优于0.1mm,转动测量精度优于0.01°,可为优化拼接算法提供一个有效的初始值,该方法能够快速给出各子孔径间的相对坐标变换且不产生误差累积方法简单且可靠。  相似文献   

5.
采用立体视觉的子孔径拼接测量工件定位   总被引:1,自引:0,他引:1  
为了实现大口径光学元件的子孔径拼接干涉测量,提出了采用立体视觉进行光学元件位姿测量的方法,建立了基于双目视觉的子孔径拼接测量系统,对该系统的数学模型、测量原理以及基于四元数法的位姿变换矩阵求取方法进行了研究。首先,介绍了圆形子孔径拼接干涉测量的原理,并基于齐次坐标变换分析了其对工件定位的要求,接着引入了立体视觉辅助测量系统,建立了其通用测量模型,利用双目视觉获取不同子孔径测量时与工件刚性连接的特征点的三维全局坐标,在完成全部子孔径测量后利用四元数法求取各子孔径相对于全局坐标系的转换矩阵,然后利用优化拼接算法将各子孔径数据统一到全局坐标系下,完成大口径光学元件的全局测量。最后利用该系统实现了对口径为150mm平面和100mm球面的检测。实验结果证明,在本系统中,立体视觉系统平移定位精度优于0.1mm,转动测量精度优于0.01度,能够给优化拼接算法提供一个有效的初始值,且该方法能够快速给出各子孔径间的相对坐标变换且在其视场范围内不产生误差累积,方法简单实用,稳定可靠。  相似文献   

6.
设计了一种正六棱柱形状的立体拼接靶标,以靶标侧面6个棋盘格的角点作为全局控制点。基于近景摄影测量技术,建立立体靶标的6个单元模型,通过计算模型内摄站间的相对位姿,推导出棋盘格角点在所属单元模型的局部坐标。以公共棋盘格为中介,确立相邻单元模型的坐标系转换关系。建立靶标的全局坐标系于1号棋盘格,推导该棋盘格平面与其像平面间的单应性矩阵,从而确立全局坐标系和1号棋盘格所处单元模型的坐标系的转换关系。依次递推实现全局坐标系和每个单元模型坐标系的转换,进而计算出全部靶标角点的全局坐标,再经光束平差算法获取精确值。以玻璃表面棋盘格的角点间距作为评价指标,拼接精度优于0.15 mm/m。基于立体拼接靶标的拼接试验表明,实体模型表面4个子区域的局部点云可被精确地拼接成整体点云。与基于全局控制点和平面靶标的拼接方法相比,本方法亦具有更高的拼接精度。  相似文献   

7.
针对工程车辆行驶速度低、滑转率高的特点,提出了一种基于双目序列图像的检测方法,以便快速检测工程车辆的相对位置与实际行驶速度。将双目摄像机安装在车辆上,连续采集周围环境的序列图像;利用SURF(speeded up robust features)特征对已采集到的各帧双目图像进行立体匹配,计算出环境特征点到摄像机坐标系原点的距离,从而实现车辆的相对定位;再对相邻两帧图像进行特征跟踪匹配,根据不同景深将匹配特征点对划分为远距点对和近距点对,分别利用远距点对和近距点对估算车辆运动过程中坐标系的旋转矩阵和平移矢量,并利用Levenberg-Marquardt法进行优化求解;最后根据优化后的旋转矩阵和平移矢量计算出车辆的行驶速度。户外模拟试验结果表明了方法的有效性和可行性。  相似文献   

8.
现有线结构光多视觉传感器现场校准通常需要先完成线结构光视觉传感器局部标定,再进行多视觉传感器全局校准,效率低、且在搬运过程容易对线结构光视觉传感器局部标定结果造成影响,降低测量系统精度。针对以上问题,提出一种可以同步实现线结构光视觉传感器局部标定和多视觉传感器全局校准的现场同步校准方法。该方法以自由移动三次以上的一维靶标为中介,将两个无共同视场的线结构光视觉传感器联系在一起。以一维靶标特征点距离已知为约束条件,由交比不变性,得到所有一维靶标点及光条与一维靶标相交点在各线结构光视觉传感器图像坐标系下的图像坐标,进而求解出两个线结构光视觉传感器之间的转换矩阵和一维靶标特征点及光条与一维靶标相交点在全局坐标系下三维坐标,通过拟合求解全局坐标下的光平面方程,采用非线性优化算法求解出两个线结构光视觉传感器间的转换矩阵与光平面方程的最优解。如果视觉传感器多于两个,可通过两两校准方式实现多个视觉传感器现场校准。试验结果表明,该方法同步校准方均根误差可优于0.14 mm。  相似文献   

9.
二维和三维视觉传感集成系统联合标定方法   总被引:4,自引:0,他引:4  
为了解决激光雷达三维深度与摄像机二维图像信息融合的关键问题,建立二者的映射关系,提出了一种基于平面实体特征匹配的三维激光雷达与摄像机集成系统的联合标定方法.首先在三维激光雷达与摄像机系统模型的基础上,提取靶标平面在激光雷达和摄像机坐标系中的平面特征,利用平面特征约束求解两坐标系之间的旋转矩阵和平移向量的初值,为了降低噪声影响,使用Levenberg-Marquardt算法优化结果.分别进行了计算机仿真和在自制的集成传感系统上的标定实验,残差深度比达到0.2%,并使用标定结果对激光点云和摄像机图像进行数据融合,验证了该方法的准确性和有效性.  相似文献   

10.
针对复杂曲面特征测量时十字结构光的快速、高精度标定,提出一种基于直线空间旋转的十字结构光标定方法。利用OTSU算法选取最佳阈值来提取光条的所在区域,通过基于Hessian矩阵的Steger算法和最小二乘法提取并拟合光条中心;通过图像中与靶标平面内特征点对的构建,借助RANSAC算法求解单应性矩阵,对光条直线进行单应性矩阵变换来获取靶标平面内的光条直线方程;由相机坐标系与世界坐标系的转换关系,将直线方程转换到相机坐标系下;由空间直线绕任意轴的旋转变换关系,将光条直线绕投射中心线进行旋转,并将旋转前后的两条直线进行平面拟合,求解光平面方程参数。结果表明,该方法对靶标圆心间距测量的平均绝对误差为0.023 mm,均方根误差为0.026 mm。本文方法可以实现较高的测量精度,且能避免靶标平面的多次移动。  相似文献   

11.
基于摄像机位姿估计的数学模型,提出了一种检测摄像机位移前后目标图像特征点的方法,通过求解摄像机发生位移前后的相对位姿矩阵来解决应用视觉图像获得点云的初始配准问题。首先,介绍了摄像机位姿估计模型,包括本质矩阵、旋转矩阵以及平移矩阵;然后,介绍了SURF算子的特征点检测、描述和匹配的方法,在此基础上面向双目视觉和单目结构光系统,分别提出了摄像机位移前后目标图像SURF特征点匹配和深度估计模型;最后,分别进行双目视觉和单目结构光系统点云的获取、位移前后目标图像特征点检测匹配和深度估计实验,应用摄像机位姿估计模型求解旋转矩阵和位移矩阵,并对位移矩阵进行统计分析剔除粗差。实验中采用基于点云空间特征点和基于图像的方法进行对比,点云对应特征点均方误差缩小至12.46mm。实验结果验证了方法的可行性,表明本文的点云初始配准方法能较好地获得点云精确配准初值。  相似文献   

12.
针对大视场视觉测量应用,分析了摄像机和双目视觉传感器的数学模型,提出了一种基于基线尺的大视场双目视觉传感器标定方法。在测量空间内任意多次摆放基线尺,两摄像机拍摄基线尺图像。利用基本矩阵及基线尺上两特征点之间距离的约束,采用线性解和非线性优化方法结合同时估计摄像机的内部参数以及双目视觉传感器的结构参数。该标定方法操作简单,标定效率高,无需初始参数即可估计双目立体传感器的全部参数。实验结果表明该方法在6000mm×4500mm的范围内可以达到0.06mm的测量精度,适合双目立体视觉传感器的现场标定。  相似文献   

13.
刘震 《光学精密工程》2008,16(11):2274-2280
基于交比不变性原理和一维靶标点共线的特点,提出了一种多视觉传感器全局校准方法。以一个视觉传感器坐标系为基础,建立全局坐标系,称该视觉传感器为基础视觉传感器。将一维靶标在基础视觉传感器和待校准视觉传感器前合适位置摆放至少两次。对每个视觉传感器,根据拍摄得到的三个或三个以上靶标点图像坐标,由交比不变性原理,求解不在视场区域的靶标点图像坐标。结合靶标点之间的距离约束,求解待校准视觉传感器到基础视觉传感器的转换矩阵。根据一维靶标特征点共线的特点,通过捆绑调整方式得到转换矩阵的最优解。最后通过两两视觉传感器校准的方式完成多视觉传感器全局校准。该方法不需外部辅助设备、简单灵活,实用性强。试验证明全局校准精度可达0.041mm。  相似文献   

14.
提出一种基于双目视觉的测量方法,通过投影文字图案形成叶片表面检测点,采用具有旋转、尺度不变的SIFT算子对左、右摄像机图像进行特征提取及匹配,并通过窄基线剔除法去除匹配后生成的一系列共轭像素点中的误匹配点,实现对涡轮叶片表面点云数据的高精度、低成本提取.实验结果验证了算法的有效性.  相似文献   

15.
大视场双目视觉传感器的现场标定   总被引:10,自引:7,他引:3  
分析了摄像机和双目视觉传感器的数学模型,针对大视场视觉测量应用,提出了一种基于基线尺的大视场双目视觉传感器标定方法.在测量空间内任意多次摆放基线尺,由两摄像机拍摄基线尺图像.利用基本矩阵及基线尺上两特征点之间距离的约束,采用线性解和非线性优化相结合的方法同时估计摄像机的内部参数以及双目视觉传感器的结构参数.该标定方法操作简单,标定效率高,无需初始参数即可估计双目立体传感器的全部参数.实验结果表明,该方法适合双目立体视觉传感器的现场标定,在6 000 mm×4 500 mm的范围内可以得到0.06 mm的测量精度.  相似文献   

16.
提出了一种基于手眼视觉的并联机器人标定方法。基于环路增量法,建立了平面2-DOF冗余驱动并联机器人运动学误差与标定模型;设计了一种标定实验靶板,利用相机采集靶板图像并对其进行分割、识别、旋转补偿的处理,获取机构末端目标位置和实际位置的像素误差值;针对机构自身结构的限制,利用边界曲线识别特征角点,提出了一种基于特征角点确定检测点旋转角度的方法,在补偿相机旋转角度的基础上,再利用简化后的相机针孔模型,将像素误差值通过转换得到机构末端执行器的真实位置误差值;最后利用标定模型和通过视觉系统获取的误差值进行运动学标定。经过4次迭代,机构误差减小为原来的1/3,验证了该方法的可行性。同时该方法具有标定过程用时短、数据量小、实验成本低等优点。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号