首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 140 毫秒
1.
将激光单目视觉传感器固定在ABB机器人上组成视觉系统,用Matlab标定工具箱实现了对摄像机参数的高精度标定,与机器人示教器结合对机器人进行了手眼标定;利用视觉系统采集焊缝图像,对获得的图像进行图像处理和特征分析,并提取计算机图像平面上焊缝特征点的图像坐标.根据摄像机内外参数、机器人的手眼关系以及焊缝的特点提出一种简便的方法将二维平面坐标转化为三维坐标,用Solidworks还原出焊缝的三维模型,提取焊缝中心线信息进行焊接实验,结果表明焊接精度满足实际要求.  相似文献   

2.
测头成像视觉坐标测量系统组成,建模及求解   总被引:2,自引:0,他引:2  
提出了一种新型视觉坐标测量系统-单摄像机测头成像视觉坐标测量系统。系统中采用目标测头作为成像目标,利用测头与被测表面接触,通过分析测头上已知特征点成像变化来实现对被接触点的三维坐标测量。这一测量新思路,不仅可以达到目前大多数视觉测量系统的测量目的,同时还可以实现对被遮挡表面的测量并具有较大测量范围。利用空间坐标变换及光学成像原理建立了这一视觉测量系统的非线性测量方程,并给出了利用Newton非线性  相似文献   

3.
针对传统锻压生产线机器人与工件标定方法耗时长、精度低等问题,提出一种视觉标定的方法,确定机器人与工件的位置关系.利用摄像机参数标定工具箱实现对平面标定模板的角点提取和校正,得到摄像机的内外参数.通过示教工件坐标的试验,验证了该标定方法的可行性.结果表明:该方法可以保证机器人对工件快速准确的抓取,得到工件坐标的平均误差在0.3%以内,标定精度达到生产线的实际要求.  相似文献   

4.
机器人视觉定位系统的研究与实现   总被引:7,自引:0,他引:7  
视觉定位是机器人视觉的主要研究方向之一,本文把PUMA-560机械手,AdeptVision视觉处理系统和PanasonicGP-CD-40CCD相机三者组成一实际系统,主要研究了其中的CCD相机的标定方法,相机安装位置的示解方法和目标姿态的封闭算法,并上述算法相结合,有效实现了PUMA-560视觉定位系统,为今后的实际应用打下了坚实的基础。  相似文献   

5.
一种基于圆型轨道的双目主动视觉监测平台的建立,解决了并联机器人的“盲”工作状态问题。然而在摄像机和并联机器人的加工位置之间常常有障碍物出现,为了避免摄像机的观测视线被遮挡,提出了一种在摄像机运动空间上求解障碍区域的方法。该方法中引入了最小面积凸包围盒算法,简化了求解过程,从而能实现视觉监测平台的快速避障。算例实验表明该方法是正确、有效的。  相似文献   

6.
单目视觉坐标测量方法   总被引:1,自引:1,他引:0  
为了解决现代化生产中对高精度、大尺寸、三维整体现场在线测量技术的需求问题,提出了一种基于光学测头成像的单目视觉坐标测量方法。该方法以光学测头上的光学特征点作为成像目标,利用单个摄像机获取测量信息。测量过程中,通过分析光学测头上光学特征点的二维成像坐标,利用特征点之间已知的几何约束知识和摄像机的透视投影模型,建立特征点与对应像点的求解关系。通过基于奇异值分解的位姿优化算法确定特征点的空间位置坐标。根据特征点与测尖间已知的位置约束关系确定被测点的空间坐标,从而实现坐标测量目的。测试实验结果表明,该方法切实可行,系统的测量不确定度小于0.32mm。  相似文献   

7.
为了使机器人能够更好地定位,研究了一种基于全景视觉的机器人相互定位的方法.2个全景摄像机和用于识别机器人的三色环圆柱体分别安装在不同的移动机器人上,利用光学视觉原理,通过CCD摄像机,获得包括另一个移动机器人的全方位景物图像.将得到的全景图像二值化处理后,通过噪声去除及八方区域生长算法找到符合条件的区域,并将找到区域的RGB颜色模型转换为H IS颜色模型.根据三色环圆柱体自身的3种颜色的固定顺序明显区别于背景的特点,识别出机器人上的目标三色环圆柱体,通过设计出的机器人相互定位算法,计算出机器人在世界坐标系下的坐标.实验结果表明,本文研究的基于全景视觉的移动机器人定位方法是令人满意的,对实际应用有一定的价值.  相似文献   

8.
双目立体视觉的无人机位姿估计算法及验证   总被引:4,自引:1,他引:3  
针对无人飞行器在未知复杂环境下的导航问题,提出了一种基于双目立体视觉的无人飞行器位置和姿态估计算法。用双目摄像机采集立体图像序列,对图像进行立体校正后使用Harris算法提取特征角点,用NCC算法获取匹配特征点,导出摄像机坐标系下的特征点坐标,得到三维立体特征信息,使用RANSAC算法与L-M迭代算法得到无人飞行器姿态和位置估计值。实验结果表明,基于双目立体视觉的位姿估计算法能适应未知环境变化,计算结果与实际位姿量相比误差小,能满足无人飞行器导航要求,可为无人飞行器的导航实现提供一套新途径。  相似文献   

9.
基于SIFT特征点的双目视觉定位   总被引:4,自引:0,他引:4  
提出了一种结合了SIFF特征点的双目立体视觉定位方法.介绍了对尺度、旋转、视角等变化具有良好鲁棒性的SIFT特征向量,利用SIFT特征向量匹配算法在双目视觉系统采集的左、右图片中分别检测目标、获取匹配的目标SIFT特征点.经过空间匹配点选择、标定点坐标计算等步骤获取左、右图片中具有空间位置一致性的目标标定点,并在摄像机坐标系中恢复目标标定点三维信息.实验结果表明,利用该方法进行目标定位具有较强的适应性.有一定的实用价值.  相似文献   

10.
设计了基于双目视觉的船舶跟踪与定位系统,并且完成对应算法设计.算法分为摄像机标定、目标跟踪、立体匹配、视差定位4个模块,其中,跟踪模块以目标窗口的形式给出跟踪结果,匹配模块在跟踪结果中进行左右目立体匹配,定位模块根据左右目匹配点对的像素位置计算其在物理空间的坐标,减少了匹配时间.实验结果表明,该方式可实现实时跟踪目标并给出目标的准确位置,满足应用要求.该定位系统可同时完成动态目标跟踪和定位,提供三维图像的丰富信息,具有很强的推广应用价值.  相似文献   

11.
为解决无人机(Unmanned Aerial Vehicle, UAV)在进行地面目标跟踪实验时,存在验证难度大,成本高等问题,设计和实现了基于视景仿真软件和MATLAB/Simulink的仿真平台.首先,选择汽车作为地面目标,在视景仿真软件中导入UAV和汽车的三维模型,并设置虚拟云台和摄像机.其次,利用UAV、汽车与云台之间的相对运动模拟UAV跟踪过程中场景的变化,基于运动补偿的云台控制算法保证了虚拟摄像机始终指向目标.然后,虚拟摄像机采集目标所在区域的图片,图像跟踪算法跟踪图片中的目标,并利用目标图像模型解算目标在世界坐标系下的位置.最后,根据目标位置,使用参考点制导法生成期望的滚转角指令,引导UAV围绕目标盘旋飞行.视景仿真软件、图像跟踪算法和MATLAB/Simulink之间通过共享内存与UDP进行闭环通信.此外,提出一种实用可靠的标定方法,完成了视景仿真软件中虚拟摄像机内参矩阵的标定.仿真结果表明:该仿真平台能较好地模拟UAV对不同运动状态汽车的跟踪,得到的仿真结果具有较高的工程参考价值.本文的研究成果为目标跟踪实验提供了良好的仿真环境,有效减少实验成本.  相似文献   

12.
相机标定是三维重构中的关键步骤,本文对在自标定下的两视图三维几何模型恢复进行研究。先采用SURF算法得到图像匹配点对,在此基础上,利用RANSAC鲁棒估计基础矩阵;然后根据Kruppa方程所推导出的二次方程自标定出相机内参数,进一步地,通过分解本质矩阵求解出相机外参数;最后,根据三角化法求得空间三维坐标值。实验结果证实,该方法具有效性和正确性,并且能够真实地再现物体的三维模型。  相似文献   

13.
针对大视场摄像机的标定,提出一种基于双一维靶标的摄像机标定方法。两个一维靶标任意放置在摄像机视场内,摄像机从多角度拍摄靶标图像;利用一维靶标特征点共线的特性进行图像畸变校正;计算两个一维靶标所在空间直线在图像中的消影点,得到在空间中的夹角关于摄像机内参数矩阵的表达式,利用其所成角度恒定这一约束求解摄像机内部参数;采用非线性优化方法,求解摄像机内、外参数在最大似然准则下的最优解。仿真试验结果表明,当噪声水平小于0.5 pixel时,摄像机内部参数的相对误差均小于0.3%。实物试验结果表明,视场范围为1 200 mm×800 mm时,该方法的标定精度优于0.1 mm。  相似文献   

14.
Accurate stereo vision calibration is a preliminary step towards highprecision visual positioning of robot. Combining with the characteristics of genetic algorithm (GA) and particle swarm optimization (PSO), a threestage calibration method based on hybrid intelligent optimization is proposed for nonlinear camera models in this paper. The motivation is to improve the accuracy of the calibration process. In this approach, the stereo vision calibration is considered as an optimization problem that can be solved by the GA and PSO. The initial linear values can be obtained in the first stage. Then in the second stage, two cameras’ parameters are optimized separately. Finally, the integrated optimized calibration of two models is obtained in the third stage. Direct linear transformation (DLT), GA and PSO are individually used in three stages. It is shown that the results of every stage can correctly find nearoptimal solution and it can be used to initialize the next stage. Simulation analysis and actual experimental results indicate that this calibration method works more accurate and robust in noisy environment compared with traditional calibration methods. The proposed method can fulfill the requirements of robot sophisticated visual operation.  相似文献   

15.
角点检测在运动估计、光流计算、视觉定位、3D重建和相机标定、形状测量和分析等方面都有广泛的应用.详述了Harris算法的基本原理,在OpenCV算法环境下运用Harris算法对黑白棋盘格图像进行角点检测,实验结果可以应用在摄像机的标定当中,具有一定的应用价值.  相似文献   

16.
角点检测在运动估计、光流计算、视觉定位、3D重建和相机标定、形状测量和分析等方面都有广泛的应用.详述了Harris算法的基本原理,在OpenCV算法环境下运用Harris算法对黑白棋盘格图像进行角点检测,实验结果可以应用在摄像机的标定当中,具有一定的应用价值.  相似文献   

17.
First,the constitution of traditional visual sensor is presented.The linear camera model is introduced and the transform matrix between the image coordinate system and the world coordinate system is established.The basic principle of camera calibration is expatiated based on the linear camera model. On the basis of a detailed analysis of camera model,a new-style visual sensor for measurement is advanced.It can realize the real time control of the zoom of camera lens by step motor according to the size of objects.Moreover,re-calibration could be avoided and the transform matrix can be acquired by calculating,which can greatly simplify camera calibration process and save the time. Clearer images are gained,so the measurement system precision could be greatly improved.The basic structure of the visual sensor zoom is introduced,including the constitute mode and the movement rule of the fixed former part,zoom part,compensatory part and the fixed latter port.The realization method of zoom controlled by step motor is introduced. Finally,the constitution of the new-style visual sensor is introduced,including hardware and software.The hardware system is composed by manual zoom,CCD camera,image card,gearing,step motor,step motor driver and computer.The realization of software is introduced,including the composed module of software and the workflow of measurement system in the form of structured block diagram.  相似文献   

18.
First, the constitution of traditional visual sensor is presented. The linear camera model is introduced and the transform matrix between the image coordinate system and the world coordinate system is established. The basic principle of camera calibration is expatiated based on the linear camera model.On the basis of a detailed analysis of camera model, a new-style visual sensor for measurement is advanced. It can realize the real time control of the zoom of camera lens by step motor according to the size of objects.Moreover, re-calibration could be avoided and the transform matrix can be acquired by calculating, which can greatly simplify camera calibration process and save the time. Clearer images are gained, so the measurement system precision could be greatly improved. The basic structure of the visual sensor zoom is introduced, including the constitute mode and the movement rule of the fixed former part, zoom part, compensatory part and the fixed latter part. The realization method of zoom controlled by step motor is introduced.Finally, the constitution of the new-style visual sensor is introduced, including hardware and software. The hardware system is composed by manual zoom, CCD camera, image card, gearing, step motor, step motor driver and computer. The realization of software is introduced, including the composed module of software and the workflow of measurement system in the form of structured block diagram.  相似文献   

19.
改进的工程机器人立体视觉标定方法   总被引:1,自引:0,他引:1  
针对摄像机线性标定准确程度不高与非线性标定计算复杂等问题,以己知的三维信息为基础推导二维像素点对信息,提出了基于神经网络的三目立体视觉摄像机标定方法,构建了改进的BP神经网络模型,对比分析了两种摄像机标定方法的像素点对均方根误差。结果表明:采用改进的BP神经网络能够避免对摄像机进行非线性建模,有利于提高标定精度,增加系统的灵活性,更具有实际意义。  相似文献   

20.
在增强现实系统中实时跟踪三维物体,为了准确地将虚拟物体注册在复杂的真实环境中,提出了一种基于三角形图案标识的视觉三维注册方法.通过边缘检测方法在捕获的视频图像中提取标识的三角形轮廓,获得三角形顶点的数据,并根据这些数据计算出单应性矩阵,推导出摄像机参数,从而实现摄像机标定.利用Camshift算法对检测到的目标进行实时跟踪.实验结果表明,物体能被准确地注册到真实视频图像中的跟踪目标上,通过与ARToolKit软件相比较,该方法在注册效率方面优于ARToolKit软件.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号