首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
为实现前景运动的精确估计,本文提出了一种基于编码标记点的高精度运动估计方法。该方法在测量环境内的前背景中粘贴环状编码标记点,并在每次前景运动后采集若干图像,通过同时估计所有相机位姿以及背景固定标记点、前景运动标记点的空间坐标,获取前景运动六自由度参数(旋转、平移)。为实现上述目标,本文提出了包括基于随机抽样一致性的编码标记点识别与提取,图聚类的编码标记点与相机分组,增量式从运动恢复结构的背景点与相机位姿初始化,图优化的前景点与前景运动初始化以及广义光束平差的全局优化等在内的一套高精度运动估计流程。实验结果表明,本文提出的前景运动估计方法精度在0.3 mm左右,可以满足高精度前景运动估计的需求。  相似文献   

2.
基于摄像机位姿估计的数学模型,提出了一种检测摄像机位移前后目标图像特征点的方法,通过求解摄像机发生位移前后的相对位姿矩阵来解决应用视觉图像获得点云的初始配准问题。首先,介绍了摄像机位姿估计模型,包括本质矩阵、旋转矩阵以及平移矩阵;然后,介绍了SURF算子的特征点检测、描述和匹配的方法,在此基础上面向双目视觉和单目结构光系统,分别提出了摄像机位移前后目标图像SURF特征点匹配和深度估计模型;最后,分别进行双目视觉和单目结构光系统点云的获取、位移前后目标图像特征点检测匹配和深度估计实验,应用摄像机位姿估计模型求解旋转矩阵和位移矩阵,并对位移矩阵进行统计分析剔除粗差。实验中采用基于点云空间特征点和基于图像的方法进行对比,点云对应特征点均方误差缩小至12.46mm。实验结果验证了方法的可行性,表明本文的点云初始配准方法能较好地获得点云精确配准初值。  相似文献   

3.
基于计算机视觉测量技术,建立了机床主轴回转运动精度测量系统。系统主要由CCD 摄像机、计算机和相应的图像处理软件组成。利用图像传感器记录靶标特征点运动轨迹,经过图像处理软件的数据处理,可直接测得主轴的回转运动。由于靶标特征点的提取直接影响系统的测量精度,因此提出了以圆形标记作为靶标图案,采用面积矩方法提取圆心来提高系统测量精度。在MATLAB 环境下编程实现图像处理和数据计算,采用最小区域圆法计算主轴回转误差。最后采用该系统对车床主轴进行了测量,试验证明,系统可以实现主轴回转运动精度的精确、快速测量,且精度达到微米级。  相似文献   

4.
针对我国高端制造业对高精度空间六自由度测量系统的迫切需求,提出一种面向激光跟踪测量的基于单目视觉的大范围全自动高精度姿态测量方法。阐述了面向激光跟踪测量的姿态测量系统构成、合作靶标硬件设计,并建立了姿态测量数学模型;其次,分析了自适应清晰成像的姿态测量模块特性,基于光学畸变模型与张正友标定法建立了实时相机成像模型,动态校正特征点像素坐标模型,提升了特征点的提取精度;之后,结合合作靶标几何特性、EPnP算法、Soft-POSIT算法提出一种改进的姿态测量方法,建立了姿态测量系统的自动监测纠错机制,实现测量范围内任意动态位姿的自动测量。最后,利用二维精密转台搭载合作靶标对激光跟踪测量的姿态测量系统进行精度测试。实验结果表明:在3~10 m,方位角/俯仰角为±30°、滚动角为±180°内,适配有14个特征点的合作靶标,姿态测量精度优于0.049°;适配有10个特征点的合作靶标,姿态测量精度优于0.065°。此方法普适性强,对合作靶标特征点布局约束较小,可以满足高端制造业激光跟踪测量的精密测量需求。  相似文献   

5.
针对摄像机镜头畸变对系统测量精度的影响,提出了基于纯平移两视图几何的镜头畸变参数标定方法。首先,分析了机器视觉测量中影响测量精度的主要畸变类型,建立了镜头非线性畸变模型。然后,利用射影几何及纯平移两视图几何的固有特性,构建了四组约束方程用于求解畸变参数。最后,针对大视场测量时标定板无法有效充满视场的问题,提出了利用四维电控平台对视场分区域拍摄多组纯平移运动图像的畸变参数标定流程,利用较小的靶标实现了大视场的镜头畸变参数标定。在实验室验证了本文提出的畸变校正方法的可行性。结果显示:提出的方法标定精度较高,标定后图像特征点连线的直线度误差减小了89%,标定精度及可靠性均满足机器视觉测量的要求。  相似文献   

6.
利用平行透视投影模型的位姿迭代估计   总被引:1,自引:1,他引:0  
提出了一种利用平行透视投影模型的高效位姿迭代估计方法来提高单目视觉测量系统的精度和鲁棒性.通过引入齐次坐标表示,避免了现有算法对平行透视投影参考点选择的限制.首先,研究了平行透视投影模型下使用齐次坐标求解目标位姿的方法,阐述了它的几何意义.然后,通过迭代的方式将其应用于一般透视模型下目标位姿的高精度估计.仿真实验结果表明,本文方法提高了基于平行透视投影模型的位姿迭代估计的精度,速度和抗噪性能.实物测量结果表明,本文方法的平移测量精度优于0.1 mm,旋转测量精度优于0.1°,可以满足各种视觉检测系统的要求.另外,使用标志点和图像特征亚像素定位技术还可进一步提高该算法的精度.  相似文献   

7.
针对单目相机采集室外图像易受环境光照影响、尺度存在不确定性的缺点,以及利用神经网络进行位姿估计不准确的问题,提出一种基于卷积神经网络(CNN)与扩展卡尔曼滤波(EKF)的单目视觉惯性里程计。采用神经网络取代传统里程计中基于几何约束的视觉前端,将单目相机输出的估计值作为测量更新,并通过神经网络优化EKF的误差协方差。利用EKF融合CNN输出的单目相机位姿和惯性测量单元(IMU)数据,优化CNN的位姿估计,补偿相机尺度信息与IMU累计误差,实现无人系统运动位姿的更新和估计。相比于使用单目图像的深度学习算法Depth-VO-Feat,所提算法融合单目图像和IMU数据进行位姿估计,KITTI数据集中09序列的平动、转动误差分别减少45.4%、47.8%,10序列的平动、转动误差分别减少68.1%、43.4%。实验结果表明所提算法能进行更准确的位姿估计,验证了算法的准确性和可行性。  相似文献   

8.
针对家电产品机器视觉在线检测应用场景中基于图像的视觉伺服不能保证全局收敛和单目视觉反馈不佳的问题,提出一种基于切换控制的双相机视觉伺服方法。首先使用全局相机估计目标位姿,引导机器人运动到期望位姿附近,确保视觉伺服方法能够收敛;然后根据机器人手上相机提供的图像偏差和深度信息,以及全局相机提供的目标速度和姿态实现双相机视觉伺服控制。相对于使用单应性矩阵的位置视觉伺服和混合视觉伺服方法,该方法能够定位与跟踪无标记目标,大幅提升跟踪的精度和稳定性。实验表明,基于切换控制的双相机视觉伺服方法可将控制周期缩短至33 ms,满足传送带速度在0.17 m/s范围内的机器人可获取清晰图像,实现实时跟踪检测。  相似文献   

9.
列车动态包络线是评定列车安全运行的一项重要指标,基于双目立体视觉的方法是目前能够实现速度超过200 km/h列车动态包络线测量的唯一方法.因受到大视场和标定时间的严格限制,便携的标定设备、易于搭建的靶标和快速的标定算法便成为标定过程需要满足的三个条件.本文提出一种新的基于双目立体视觉的大视场现场快速标定方法,设计轻型便携靶标,靶标上40个反光标记点表示铁轨坐标系,并用于计算双相机内外参数.并且,双相机仅需同时拍摄一张靶标图像,就能实现双相机内外参数快速一体化标定.实验结果表明,该方法测量精度可达±1 mm,能够满足高速列车动态包络线测量现场标定要求.  相似文献   

10.
列车动态包络线是评定列车安全运行的一项重要指标,基于双目立体视觉的方法是目前能够实现速度超过200km/h列车动态包络线测量的唯一方法。因受到大视场和标定时间的严格限制,便携的标定设备、易于搭建的靶标和快速的标定算法便成为标定过程需要满足的三个条件。本文提出一种新的基于双目立体视觉的大视场现场快速标定方法,设计轻型便携靶标,靶标上40个反光标记点表示铁轨坐标系,并用于计算双相机内外参数。并且,双相机仅需同时拍摄一张靶标图像,就能实现双相机内外参数快速一体化标定。实验结果表明,该方法测量精度可达±1 mm,能够满足高速列车动态包络线测量现场标定要求。  相似文献   

11.
针对机器人视觉系统外参数标定的问题,提出了基于单目视觉ORB-SLAM的差分GPS辅助相机外参数标定方法。分析了单目视觉ORB-SLAM和GPS(Global Position System)定位数据之间的相似关系,建立了相机外参数标定的非线性最小二乘模型。基于随机采样一致性(RANSAC),通过三点法求得模型的初始解。设计了Levenberg-Marquardt(LM)迭代算法求解出最优解,从而得到了最优的相机相对位置和姿态参数。最后,对提出的方法进行仿真和跑车试验验证。结果表明:在试验半径为50m时,所设计标定方法的姿态标定精度可达0.1°,位置标定精度可达0.2%。该方法标定过程简单实用,不需要外界环境的先验信息和人工干预,具有很高的精度和显著的应用价值。  相似文献   

12.
Microscopic vision measurement precision has been largely limited by inaccurately calibrated model parameters, because image plane is near parallel to reference plane in the narrow depth of field. This article proposes a method of precise microscopic vision measurement based on the adaptive positioning of the camera coordinate frame. The microscopic vision measurement movably attaches the origin of the camera coordinate frame along the optical axis. By finding the optimal position, the nonlinearity of the objective function in calibration optimization is decreased and the optimization sensitivity to initial values is reduced. Therefore, we obtain a high calibration precision and eventually ensure a high measurement precision. Mathematical simulations illustrate that the calibration precision of the proposed microscopic vision measurement model is higher than that of the conventional vision measurement model. The experiment shows that with magnification of 3.024×, the presented system achieves a precision of 0.12% based on the proposed microscopic vision measurement model, which is two times higher than the one based on the conventional vision measurement model. Microsc. Res. Tech. 75:1281–1291, 2012. © 2012 Wiley Periodicals, Inc.  相似文献   

13.
在由激光位移传感器组成的测量系统中,激光光束的方向是一个关键参数.方位角和俯仰角对于一条激光光束是最为重要的两个参数.本文中提出一种基于单目视觉的激光光束方向测量方法.首先,将CCD相机放置于基础平面上方,保持相机光轴与基础平面接近于垂直状态,并利用误差为10μm的圆孔型标定板建立单目定位模型.然后将激光光束发生装置放置在基础平面上并保持位置固定,同时在基础平面上放置特制靶块,使激光光束可以投射到靶块斜面上并形成一个激光光斑.在基础平面上方放置的CCD相机可以清晰的采集到激光光斑、靶块斜面的图像,应用相关算法提取出光斑质心的二维图像坐标.沿激光光束方向以相等间距移动靶块,通过CCD相机采集每移动一次靶块在当前位置下的光斑、靶块图像.利用相关的转换公式,结合靶块本身固有参数,将光斑质心图像二维坐标转换为基础平面下的空间三维坐标.由于靶块的移动,会得到靶块不同位置下激光光斑质心的三维坐标,将这些三维坐标拟合成空间直线表征待测激光光束.拟合直线得俯仰角即为待测激光光束的俯仰角.实验中,应用高精度仪器对靶块参数进行测定,并使用高精度标定板标定相机内外参数建立相应的定位模型.测量精度主要通过单目视觉定位精度、光斑重心提取精度来保证.结果显示,待测光束的俯角最大误差达到0.02°,光束间夹角的最大误差为0.04°.  相似文献   

14.
针对轴孔零件精密装配过程中单目视觉定位系统的使用困难,设计了一种基于单目视觉的轴孔零件定位系统,提出了基于图像特征的零件倾斜角计算方法,可直接判定零件倾斜姿态.通过对椭圆快速检测算法进行优化,减小噪声影响,实现了高精度检测.最终通过该系统实现了轴孔零件的准确定位,提高了轴孔零件自动装配的成功率.实验证明,提出的方法能够在单目视觉条件下准确得到待装配零件的空间位置信息,满足同轴度要求 15 μ m 级的轴孔精密装配需求,具有较好的工程应用价值.  相似文献   

15.
工业机器人单目视觉对准技术研究   总被引:1,自引:0,他引:1  
针对工业机器人精确对准问题,提出了一种基于单目视觉的工业机器人对准技术。该技术把工业机器人与单目视觉测量技术相结合,根据特制的手眼标定板,快速建立单目视觉测量系统与机器人上对准轴之间的手眼关系和对准的基准位姿;在对准环节,通过单目视觉系统获取工件目标的姿态,然后根据已有的手眼关系和基准位姿,求解在机器人基坐标系下机器人末端的对准轴的位置调整量,迭代调整机器人末端位姿,从而实现了机械人末端的对准轴与工件目标的精确对准。实验结果表明:在测量距离约是150mm处,对准平均精度优于0.2°。  相似文献   

16.
高精度室内定位是移动机器人实现自主导航、运动控制和协同作业等任务的前提条件.利用单目视觉定位原理,提出了一种针对大视场的室内移动机器人绝对定位方法.该方法适用于室内多移动机器人同步动态定位,解决了大视场环境下多相机非线性标定和视场融合问题,相机标定精度提高了52.6%.为提高移动机器人动态定位精度,设计了基于光信标的高...  相似文献   

17.
基于成像光线空间追踪的摄像机标定方法研究   总被引:2,自引:0,他引:2  
摄像机测量模型和标定方法是视觉测量的关键,直接影响视觉测量系统的测量精度。针对这个问题,借鉴非成像模型的摄像机校准的思想,提出了基于成像光线追踪的摄像机标定方法。分析测量点经摄像机镜头成像的规律,通过空间直线确定摄像机图像坐标与测量空间的映射关系。使用像平面和两个空间平面的映射关系,建立空间直线表达方式,完成基于成像追踪方法的摄像机测量参数标定。通过噪声分析和精度测量实验对基于成像追踪的摄像机标定方法进行精度验证,实验结果表明该方法可以有效抑制标定数据噪声对测量结果的影响,提高摄像机标定精度。  相似文献   

18.
针对靶场现场监测范围大,相机焦距不固定,相机空间位置及角度各不相同的情况,为实现对弹落点空间坐标位置的高精度自动测量,提出了一种在野外大视场环境下使用的基于单相机空间坐标测量系统的快速标定方法。首先,在小孔成像模型的基础上,通过GPS测量获得视场内两个标定点及相机在大地坐标系中的坐标;然后读取标定点的像素坐标,根据对角相等及最小二乘法实现焦距与旋转矩阵的分步标定;最后在保证标定精度前提下,略去主点的标定过程,确定相机主点为理想主点位置。实验结果表明,在测试距离1km以外,对视场宽度为200m的区域进行监测时,校验点相对定位误差低于0.25%。该相机标定方法不需要高精度靶标,操作简单,适用于野外大视场环境下单相机空间坐标测量系统的快速标定。  相似文献   

19.
针对低分辨率、弱纹理、缺少参照物的小场景下内窥镜图像目标测量困难问题,提出了融合5自由度电磁传感器的单目内窥镜下目标尺寸测量方法。首先,分析了基于5自由度传感器的内窥镜定位原理,得到内窥镜沿主光轴方向的位移。接着,以结石目标为例分析了图像目标关键信息的导航采集方法,即通过语义分割网络获得图像目标的轮廓信息,进而与内窥镜主光轴进行重合度判定,记录符合重合条件关键帧的图像目标长度信息与对应的位姿信息。最后,基于针孔相机成像模型,将目标成像比例关系与内窥镜沿主光轴的位移结合,建立了目标尺寸测量方法。实验结果表明:所提方法的测量误差控制在10%以内;对长度1~9 mm目标的平均测量误差为0.33 mm。能够满足单目内窥镜检查中对目标尺寸测量的稳定可靠、精度高、省时省力等需求。  相似文献   

20.
针对牙颌等待测物非接触式光学三维测量,提出了一种融入标定功能的夹具设计方法,实现了测量过程中待测物与标定靶的空间一致性;定义了单目视觉测量过程涉及到的坐标系统;提出了一种基于坐标配准的点云拼合技术,简化了点云拼合流程,实现了点云拼合理论零误差;应用张正友标定方法对摄像机进行了标定;通过实验验证,得到了具有一定精度的牙颌三维模型点云拼合数据,实现了较快的测量速度,为提高牙颌测量系统的整体精度提供了有力支撑。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号