首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 125 毫秒
1.
在基于手持光刀法的三维测量中,激光平面标定缺少空间参照.针对该问题,提出基于精密运动的激光平面标定方法引入棋盘格标定靶作为激光平面的空间参照,将激光投射于棋盘格标定靶,通过铣床带动棋盘格标定靶精密运动,解算激光平面上两直线在摄像机坐标系下的位置,利用异面直线修正法确定激光平面的位置.实验结果表明,该方法具有精度高、鲁棒性好的特点.  相似文献   

2.
针对投影仪-摄像机结构光系统标定精度低的问题,提出一种基于伪随机阵列与正弦光栅结合的标定算法。该方法直接对标定板角点进行编码,根据角点在不同坐标系下的点对关系求解系统参数,提高了传统的编码精度和结构光系统标定精度。在正弦光栅条纹中心处投射伪随机阵列,根据伪随机阵列窗口的唯一性和相移法可求出正弦光栅的真实相位;分别在水平和竖直方向投射正弦光栅,根据不同方向的真实相位值形成对标定板角点的唯一编码;根据编码值获得标定板角点在投影仪像平面、摄像机像平面和世界坐标系下对应点集,根据相机标定算法可得到投影仪、相机的内外参数。该方法直接对标定板角点高精度编码,求解世界坐标点和像素坐标点的对应关系,仅需要普通棋盘格标定板可实现高精度标定。实验结果表明最大反投影残差为0.7像素,棋盘格角点重建均方差为0.08 mm。  相似文献   

3.
在摄像机标定中常用黑白棋盘格作为标靶,而获取棋盘格角点位置是标定的首要任务。介绍了使用8等分圆形模板获取棋盘图像的灰度梯度和中心对称度,并对其组合,显著增强了角点区灰度并抑制了非角点区灰度。再对局部峰值点孤立,使真角点与伪角点灰度明显区分。进一步对估计的角点集中心区取一样点作基点,由其5个最近邻角点判断棋盘格边缘方向,用线性预测和误差约束方法估计并向外递推取得所有邻接角点的像素级坐标,用角点行列数中值估计并确定棋盘格角点区及其左下角以完成定位。最后对所有角点区局部用更大的模板重新检测不对称度,并用角点及其4个邻点不对称度的线性模型估计角点亚像素级坐标。  相似文献   

4.
SUSAN算子在检测角点时,只以USAN区域面积的大小作为判断准则,忽略USAN区域形状的影响。因此,该算法对棋盘格标定板中的内角点与边缘点难以区分。针对此问题,本文提出在SUSAN圆模板内再次采用SUSAN算子来实现对棋盘格标定板角点的有效检测。此外,在每个初定位角点的局部邻域内,采用二次曲面拟合法得到角点的亚像素坐标。实验证明,所提出的算法准确、有效、适应性好,能为摄像机标定提供亚像素精度的角点信息。  相似文献   

5.
钢轨轮廓检测是轨道几何参数检测的重点和难点。采用二维平面靶标对激光摄像传感器进行标定,建立世界坐标系和图像坐标系的标定模型。通过棋盘格进行实验标定,获取300组数据,采用非线性最小二乘法来标定模型参数。结果表明:采用非线性最小二乘法能够将棋盘格水平和垂直的测量误差控制在0.3 mm左右,该方法能够很好地运用到钢轨轮廓测量中。  相似文献   

6.
李怀泽  沈会良  程岳 《计算机应用》2012,32(12):3365-3368
针对在旋转平台上采集得到的多视角数据,提出一种有效的配准方法,同时结合双目立体视觉测量构建了完整的三维重建系统。通过拍摄旋转平台上多个视角下的标定板图像,提取标定板图像角点信息,计算出旋转平台坐标系和摄像机坐标系的空间位置关系,进一步推导出不同视角下的坐标转换关系,从而实现不同视角的数据配准。实验结果表明,基于本配准方法的旋转多视角双目测量系统具有较高的配准精度,能有效用于物体表面三维重建。  相似文献   

7.
为了精确、快速、高效地标定线结构光传感器参数,提出了一种线结构光传感器参数现场标定方法。根据摄像机标定方法,并结合L-M非线性优化算法对摄像机内外参数及镜头畸变系数进行标定。拍摄不同姿态下的平面靶标图像,利用靶标图像计算摄像机外参计算靶标上的圆点在摄像机坐标系下的三维坐标,并构建靶标平面方程。将激光线投射到不同姿态的靶标平面上,通过靶标平面方程计算出激光线上点在摄像机坐标系下的3D坐标,由不同位置重构出激光点在摄像机坐标系下的3D坐标来完成光平面参数标定。通过对摄像机参数、畸变系数和光平面参数的标定,重构目标物体进行测试。测量结果表明:该算法能够快速、准确地获取小车车体的三维坐标,并构造出车体的三维模型。该方法适用于大视场的工业现场标定。  相似文献   

8.
针对立体视觉系统在定位应用中存在标定步骤繁琐、耗时长及误差较大等问题,对机器人手眼单目激光立体视觉系统标定误差补偿进行研究。首先,对现有的摄像机标定、手眼标定和激光平面标定模型进行分析,在方便提取整体标定误差的前提下,组合出一种以“棋盘格&激光条纹”混合图像为基础的整体视觉系统快速标定方案。然后,对该视觉系统标定结果产生的误差进行分析与提取,提出一种从像素坐标和重建定位坐标到整体标定误差坐标的BP神经网络预测模型,利用该模型对标定方案产生的误差进行预测和补偿,提高整体标定精度。最终,焊缝位置测量实验表明,该方法可较大程度提高标定精度,在低精度设备的条件下实现同等精度的立体视觉系统标定。  相似文献   

9.
针对无人车(UGV)自主跟随目标车辆检测过程中需要对激光雷达(LiDAR)数据和摄像机图像进行信息融合的问题,提出了一种基于梯形棋盘格标定板对激光雷达和摄像机进行联合标定的方法。首先,利用激光雷达在梯形标定板上的扫描信息,获取激光雷达安装的俯仰角和安装高度;然后,通过梯形标定板上的黑白棋盘格标定出摄像机相对于车体的外参数;其次,结合激光雷达数据点与图像像素坐标之间的对应关系,对两个传感器进行联合标定;最后,综合激光雷达和摄像机的标定结果,对激光雷达数据和摄像机图像进行了像素级的数据融合。该方法只要让梯形标定板放置在车体前方,采集一次图像和激光雷达数据就可以满足整个标定过程,实现两种类型传感器的标定。实验结果表明,该标定方法的平均位置偏差为3.5691 pixel,折算精度为13 μm,标定精度高。同时从激光雷达数据和视觉图像融合的效果来看,所提方法有效地完成激光雷达与摄像机的空间对准,融合效果好,对运动中的物体体现出了强鲁棒性。  相似文献   

10.
为实现基于投影仪和摄像机的结构光视觉系统连续扫描,需要计算投影仪投影的任意光平面与摄像机图像平面的空间位置关系,进而需要求取摄像机光心与投影仪光心之间的相对位置关系。求取摄像机的内参数,在标定板上选取四个角点作为特征点并利用摄像机内参数求取该四个特征点的外参数,从而知道四个特征点在摄像机坐标系中的坐标。利用投影仪自身参数求解特征点在投影仪坐标系中的坐标,从而计算出摄像机光心与投影仪光心之间的相对位置关系,实现结构光视觉标定。利用标定后的视觉系统,对标定板上的角点距离进行测量,最大相对误差为0.277%,表明该标定算法可以应用于基于投影仪和摄像机的结构光视觉系统。  相似文献   

11.
针对传统人工测量板材尺寸精度较低、工作量大、易导致板材表面受损等局限,基于双目视觉技术设计了一种板材尺寸视觉测量系统;通过双目相机采集棋盘格图像,采用MATLAB进行相机标定和图像校正,拍摄左右图像并通过半全局立体匹配算法(SGM,semi global matching)进行特征点立体匹配,重建出目标三维点云模型;为提高目标特征点坐标获取的准确性,提出基于HARRIS的亚像素检测方法;采用区域生长算法结合膨胀和腐蚀操作提取板材表面轮廓,根据三角测量原理计算出板材轮廓上各点的三维坐标从而实现板材的尺寸测量,并进行点云重建增强三维展示效果;实践结果表明亚像素检测方法在角点提取上存在优势,在实际板材测量应用中实现了高精度尺寸测量,满足了工业测量需求。  相似文献   

12.
针对四自由度机器人手眼标定精度不高的问题,提出了基于标定块的手眼标定系统.通过引入亚像素角点提取算法,提取特征点的精确像素坐标;结合机械手平移规则,完成手眼系统旋转矩阵的标定,通过标定块提取机器人第三连杆中心在工作平台上的投影点所对应的世界坐标,计算系统平移矩阵.实验表明:方法不仅提高了手眼系统标定精度,而且简化了特征点世界坐标的提取过程.  相似文献   

13.
分析了传感器测量模型,推导了摄像机畸变模型下的像坐标与像素坐标变换关系,在此基础上,提出了一种基于二元五次多项式拟合的线结构光视觉传感器物像标定模型。在数控平台上,利用锯齿形标定块获取一组标定点,应用最小二乘方法实现参数标定。标定与测量实验表明:本方法实现简单,精度较高,满足测量要求。  相似文献   

14.
Automatic robotic grinding and polishing systems have become a developing trend in aerospace parts manufacturing. In a robotic blade grinding and polishing system (RBGPS), the automatic and precise calibration of the dynamic workpiece coordinate frame is the most important process. In this research, a new method that introduces the concept of six-point positioning into the dynamic workpiece coordinate frame calibration process is proposed using a point laser displacement sensor (PLDS). The static coordinate frame calibration process is conducted based on a robot flange and force sensor. The results indicate that the new method can achieve a higher precision calibration result and has improved operational efficiency and cost. Finally, its practicality is verified in the BRGPS, and the results indicate that the polished blade surface after using the new method has good consistency.  相似文献   

15.
针对基于Time-of-Flight(TOF)相机的彩色目标三维重建需标定CCD相机与TOF相机联合系统的几何参数,在研究现有的基于彩色图像和TOF深度图像标定算法的基础上,提出了一种基于平面棋盘模板的标定方法。拍摄了固定在平面标定模板上的彩色棋盘图案在不同角度下的彩色图像和振幅图像,改进了Harris角点提取,根据棋盘格上角点与虚拟像点的共轭关系,建立了相机标定系统模型,利用Levenberg-Marquardt算法求解,进行了标定实验。获取了TOF与CCD相机内参数,并利用像平面之间的位姿关系估计两相机坐标系的相对姿态,最后进行联合优化,获取了相机之间的旋转矩阵与平移向量。实验结果表明,提出的算法优化了求解过程,提高了标定效率,能够获得较高的精度。  相似文献   

16.
为消除工业机器人实际抓取位置与定位位置之间的误差,实现对机器人抓取行为的有效控制,设计基于粒子群优化算法的工业机器人定位抓取控制系统。根据主要机器部件选型情况建立电气网络结构,再联合视觉传感器与定位控制平台,控制抓取夹爪的行动范围,完成工业机器人定位抓取控制系统硬件的总体设计。遵循粒子群优化算法应用需求,实施Gbest选取与Pbest更新,并联合所得计算结果,定义三维坐标系表达式,建立基于粒子群优化算法的定位坐标系。根据跟踪点坐标求解结果,确定控制系数优化处理条件,完善抓取控制原则,再联合相关应用结构,实现基于粒子群优化算法的工业机器人定位抓取控制系统的设计。实验结果表明,粒子群优化算法作用下,工业机器人实际抓取位置坐标在X轴、Y轴方向上均准确符合定位位置坐标,有效消除了抓取误差,能够实现对机器人抓取行为的有效控制。  相似文献   

17.
为了去除相机标定过程中的人为干预,提出了一种采用改进的棋盘格靶标的全自动相机标定方法。识别出每幅标定图像中的四个标志圆,利用四个标志圆圆心的图像坐标和物理坐标计算二维射影变换矩阵。依据该射影变换矩阵计算出棋盘格角点的初始图像位置,接着提取亚像素精度的角点位置。迭代求解需要标定的相机参数。由实验可知,该全自动相机标定方法的棋盘格角点识别能力和相机标定精度,与Bouguet的相机标定工具箱相当,且可以显著地减少标定时间和工作量。利用20幅分辨率为640×480的靶标图像标定相机仅需16 s。  相似文献   

18.
在现今的教学、会议以及演讲等众多领域上,投影技术得到了越来越广泛的使用。而大部分投影交互过程中主要使用翻页激光笔等,这种方式交互操作单调,并且不能方便地获取鼠标坐标。针对这些问题,同时考虑到短焦投影技术的发展趋势,提出了一种基于短焦相机的激光笔光点坐标映射方法,将激光点坐标准确地从投影画面映射到操作系统的鼠标坐标,为基于激光笔的短焦投影交互提供了支持。该方法考虑到短焦相机与短焦投影的硬件融合,使用普通分辨率的短焦摄像头采集投影图像,从采集的图像中获取激光点。考虑到短焦镜头畸变大的特点,设计了二次标定的过程,利用第二次标定弥补第一次标定留下的误差,从而确保了坐标映射的精度。提出的方法在基于激光笔的投影交互系统中具有很好的应用前景。  相似文献   

19.
提出了一种基于非线性参数估计的水下定位系统传感器安装误差标定技术.水下定位系统由声学传感器,GPS和船体姿态传感器组成,各传感器的坐标系并不能完全重合,需要对传感器之间的误差标定后进行修正才能够获得高精度的定位效果.已有的标定方法多基于高斯-牛顿迭代法,而当非线性系统模型线性化带来较大误差时,常规的基于高斯-牛顿迭代法的标定方法已无法达到高精度的要求,而非线性模型参数估的直接解法则掺人了三阶量,有效减小线性化的模型误差,提高了各传感器安装误差的标定精度.海试数据处理表明:定位精度可由1 m提高到0.7 m.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号