共查询到20条相似文献,搜索用时 31 毫秒
1.
2.
基于神经网络的双目视觉摄像机标定方法的研究 总被引:8,自引:6,他引:8
摄像机标定是精密视觉测量的基础,传统的双目标定位需要建立复杂的数学模型。神经网络可以有效地处理非线性映射问题,本文介绍了一种BP神经网络,可以很好地描述双目视觉中三维空间特征点坐标和2个摄像机对应像点间的非线性关系,并且为了提高网络的学习能力引入了动态因子。将神经网络标定方法与传统的常用标定方法比较,实验结果表明,基于神经网络的双目视觉标定方法能获得较高的标定精度。 相似文献
3.
4.
基于双目视觉的医疗机器人摆位系统测量方法 总被引:3,自引:3,他引:0
为了实现精确放疗过程中精确定位和肿瘤位置的精确测量,建立了基于双目视觉的医疗机器人摆位测量系统,并对系统所采用的摄像机标定方法、标记点识别及其三维坐标计算、摆位系统的位置验证等算法进行研究。建立基于双目视觉的医疗机器人摆位测量系统;提出了一种对摄像机采用基于平面棋盘格和立体标定模板相结合的摄像机标定新方法;采用Roberts梯度算子对图像分割的方法,识别标记点中心并计算其三维坐标;通过比较基于双目视觉计算和三维坐标测量仪器测量的各个标记点三维坐标的摆位误差,实现放疗过程中位置验证和精确摆位。实验结果表明:摄像机的标定精度为36.5×10-3 mm和各个标记点的三维坐标平均偏差为δX=0.573mm、δY=0.495mm、δZ=0.430mm,测量方法可获得较高的标定精度和摆位精度,能满足精确放疗对高精度摆位系统的临床需求。 相似文献
5.
以提升焊接机器人焊接精度为目的,设计激光视觉传感器的机器人焊缝高精度跟踪系统。由工业相机和激光传感器、焊接机器人等组成系统硬件架构,获取焊缝激光光源后,将其传输至激光图像传感层。采用激光图像传感器对焊缝激光光源图像进行物理滤波处理,使用工业相机拍摄焊缝激光图像。提取焊缝激光图像特征,依据其特征点位置对焊接机器人进行手眼标定,获取焊接机器人校正向量并将该向量输入到机器人运动控制层内的焊缝跟踪程序内,利用该程序不断修正焊接机器人跟踪行为并向接口电路电机驱动器发送控制跟踪命令,实现机器人焊缝高精度跟踪。实验结果表明:该系统具备良好的启动性能,对焊机机器人手眼标定径向畸变、切向畸变数值均较小,跟踪不同类型焊缝的最低偏差数值仅为0.01 mm,跟踪精度高。 相似文献
6.
针对传统机器人视觉测量系统中测量精度受机器人绝对定位精度限制的问题,构建了基于全局空间控制的高精度柔性视觉测量系统并研究其标定技术。通过全局空间测量定位系统实现机器人末端工具的高精度实时控制,可以突破机器人自身定位精度的限制,充分发挥其高度柔性的运动特性。为实现系统高精度测量,提出一种基于单应性矩阵的视觉传感器外参标定方法,该方法仅需对所设计的平面靶标进行一次成像,结合激光跟踪仪进行坐标转换即可实现传感器坐标系与外部参考坐标系之间坐标转换关系的精确标定。实验结果表明,基于全局空间控制的机器人视觉测量系统在其工作空间中距离测量精度优于0.2/mm,较传统的机器人视觉测量系统得到显著提高。 相似文献
7.
简单阐述了基于MATLAB工具箱的方法,利用对二维的棋盘拍摄的一组图像,提取角点进行标定,通过多次的实验对比,证明了MATLAB工具箱对摄影机标定的可靠性,为利用棋盘标定提供了一定的参考。 相似文献
8.
三线结构光视觉传感器由于获取信息量大、测量速度快等特点被广泛应用于工业现场测量。为了实现传感器高精度、快速的现场标定,提出了一种基于支持向量机的三线结构光视觉传感器标定方法。首先,设计标定靶标;其次,采集靶标图像后提取特征点亚像素坐标值;再次,基于支持向量机方法建立特征点的图像坐标和三维空间坐标的映射模型;最后,将待标定点图像坐标输入映射模型,即可得到三维空间坐标,实现对三线结构光视觉传感器的直接标定。实验验证,Y轴、Z轴方向上的测量绝对误差均值分别为0.021 1 mm和0.015 0 mm,具有较高的标定精度,且该标定方法标定过程简单、快速,适合现场标定。 相似文献
9.
针对传统模式机器人在仓储出库作业时缺乏智能性的问题,本文研究一种基于双目视觉引导机械臂切割系统,搭建了双目立体视觉系统并进行双目标定,通过机械臂手眼标定获得纸箱坐标系,相当于机械臂基坐标系的坐标变换,提出一种基于标准尺寸纸箱作为模板的灰度匹配方法,获得纸箱规格信息进而引导机械臂完成切割。实验结果表明,3类纸箱定位误差绝对值分别在1.3 mm、1.5 mm和2.2 mm以内,满足工业生产要求,具有较好通用性。 相似文献
10.
11.
在摄像机标定过程中,较差的光照条件和镜头畸变会造成棋盘格角点漏检和角点冗余。分析了角点的灰度分布特性,提出一种基于角点灰度分布特征的棋盘格角点检测算法。为确保在较差光照条件和镜头畸变下,棋盘格图像角点不漏检,算法首先利用角点的灰度分布特性提取候选角点;然后通过迭代的方式提高候选角点的精度并再次结合棋盘格角点的灰度分布特性剔除候选角点中非角点处的伪角点,避免棋盘格角点冗余;最后通过角点处的邻近点合并获得最终的棋盘格角点坐标。实验结果证明,在较差的光照条件和镜头畸变条件下,本算法角点无漏检和冗余。将该算法提取的棋盘格角点应用于摄像机标定,结果显示重投影误差的均方差在0.1pixel范围以内,优于其他算法。 相似文献
12.
针对传统摄像机标定过程复杂、三维测量精度不高的问题,提出了一种基于投影直线相交的双目视觉三维测量方法,并给出了基于神经网络的标定方法。根据摄像机成像特点,利用双标定平面上的点求取投影直线方程;针对摄像机成像复杂的畸变模型,利用BP神经网络对复杂非线性映射关系的强大逼近能力,对左右两台摄像机于远近标定平面处分别进行隐式标定,得到图像像素坐标到平面模板二维物理坐标的映射关系;设计制作了试验平台,采用手工辅助的方法获得网格模板训练样本。此标定方法完全适用于大视场、近距离、高精度的双目视觉传感器。试验结果表明,系统对空间已知长度的测量结果误差约为0.109 mm,测量精度较高。 相似文献
13.
为在工作现场对巡线机器人视觉系统中的摄像机进 行标定,提出了一种自动化的标定方法。方法首先通过视觉检测地线和线上的运动目标,发 现目标后,控制机器人沿地线作低速运动。检测到目标进入处理区域时,记录目标上最前端 点的坐标,然后变换2次视角,获取3个视角下的一系列图像。在处理中, 提取每个视角下间隔Δn帧的n幅图像中目标上的最前端点,以通过该点的地线 的垂线与地线两侧边缘线及轴线的交点形成 2×(n-1)的棋盘格,并对格点进行校正。然后利用地线尺寸、机器人速度和被处理帧间的 时间差等已知条件,获取图像中的点 与其三维空间点间的对应关系,最后利用张氏标定法相同的处理方式,解算出摄像机的内外 参数。结果 通过实验验证,以张 氏标定结果为准,该算法对内参中的焦距误差不超过5%。通过本文算法,可实 现摄像机的工作中的自动标定,无需人工拍摄标定参照物,不需人工干预,能较好的实现自 动化。 相似文献
14.
15.
16.
17.
为实现对线结构光视觉测量系统的高精度标定,针对传统标定方法中存在特征点数量较少和标定精度一定程度上受结构光灰度提取精度影响的不足,设计了一种基于二维平面靶标改进的线结构光标定算法。该算法在交比不变定理的基础上,通过简单的棋盘靶标获取大量的特征数据点,进而通过最小二乘法获得初始光平面方程。将结构光中心点作为拟合光平面的特征点,依据结构光中心点既在光平面上又在棋盘标定板平面上的特性,筛除误差较大的异常数据点,最后通过筛选得到的数据点优化拟合光平面方程。在一般的试验环境下,光平面标定对比试验结果表明,改进后的标定方法在测量精度方面有非常显著的提升效果。 相似文献
18.
针对双屏视觉标靶前、后感光成像屏位姿关系难以标定的问题,提出一种基于坐标点云的感光成像屏位姿标定方法。该方法分别将前、后感光成像屏划分为n行n列的网格阵列,通过全站仪测量感光成像屏上每个网格角点的空间三维坐标,并利用工业相机实时获取感光成像屏上每个网格角点的图像二维坐标,结合图像二维坐标和空间三维坐标获得2D-3D映射关系,从而得到坐标点云数据。根据三公共点坐标系转换算法将坐标点云数据中的三维坐标统一到标靶坐标系下,进而确定相机与前、后感光成像屏的位姿关系,再通过网格索引方法对前、后感光成像屏的位姿关系进行求解。为评价标靶位姿测量精度,设计了静态测量重复性精度评定实验和绝对测量精度评定实验。实验结果表明:该标定方法的坐标静态测量重复性精度为0.13 mm、绝对测量精度为0.93 mm;方位角静态测量重复性精度优于0.01°、绝对测量精度优于0.05°。因此,该标定方法可以实现两个空间平面位姿关系的精确标定,且具有操作简便、精度高等特点,可用于双屏视觉标靶的标定。 相似文献
19.