共查询到20条相似文献,搜索用时 62 毫秒
1.
为能够在无人驾驶情况下完成各项复杂作业任务,设计和研究具有双目立体视觉系统的智能挖掘机器人.该挖掘机器人可实时捕获机身周围的图像信息、求取对象物特征点的立体坐标,并根据计算结果自行规划并控制执行单元完成作业任务.通过实验验证,该挖掘机器人满足现场作业的精度要求和环境要求,可有效提高作业质量,减轻劳动强度,提高生产效率.为工程机械的自动化、智能化提供了新的解决方案,具有重要的社会经济效益. 相似文献
2.
双自立体视觉是计算机视觉的一个重要分支,双目立体视觉直接模拟人类双眼处理景物的方式,可靠简便,在许多领域均极具应用价值,例如在机器人视觉系统中的应用.本文基于排爆机器人的应用,详细描述了排爆机器人双目立体视觉系统的设计与实现,由双目立体视觉系统根据目标物的二维图像计算出目标物的三维坐标.实验表明该系统能提高排爆机器人智能性与易操作性,大大提高了机械人的定位精度. 相似文献
3.
论文对现有的双目视觉标定方法进行论述,阐述了双目视觉系统的原理,深入的介绍了双目视觉系统标定的原理,方法。此外,针对如何使用HALCON软件进行双目标定进行了详细的论述,分析了面阵摄像机的标定过程,该方法简单易行,充分发挥了HALCON的函数库功能,提高了标定精度和计算速度,而且具有良好的跨平台移植性。 相似文献
4.
一种基于双目视觉的手眼标定方法 总被引:1,自引:0,他引:1
提供了一种能同时标定摄像机与机器人手眼关系的方法,精确控制视觉机器人末端执行器做2次旋转运动和5次平移运动.建立视觉机器人末端执行机构和摄像机两个坐标系之间位置相互转换的方程,求得摄像机内参数及手眼关系,在标定的过程中取黑白棋盘中的一个成像点,无需匹配和正交运动,方便对执行机构进行控制.模拟实验数据与真实图像数据试验表明,该手眼标定方法可行、有效. 相似文献
5.
双目视觉系统通过相机模拟人眼,基于视差原理,从不同角度采集被测物体的两幅图像获取其二维信息,建立特征点的对应关系,计算出位置偏差,从而实现三维重建。眼科手术机器人双目视觉系统选用的标定方法是以张正友摄像机标定方法为基础,利用Harris角点检测方法实现亚像素点的精确化,对采集图像进行畸变矫正。将得出的标定结果与常用传统标定方法MATLAB相机标定工具箱Toolbox_calib的标定结果进行比较,分析像素误差。结果表明:使用新算法标定后的结果更加稳定,像素误差更小,精度更高,适用情况更加广泛,可用于眼科手术机器人的双目视觉标定系统中。 相似文献
6.
7.
8.
9.
10.
双目立体视觉测量系统的标定 总被引:2,自引:0,他引:2
考虑传统的自标定方法虽然无需场景信息即可实现摄像机标定,但是标定精度较低,故本文提出了一种新的大视场双目视觉测量系统自标定方法。该方法无需高精度标定板或者标定物,仅需利用空间中常见的平行线和垂直线建立摄像机参数与特征线间的约束方程,即可实现摄像机的内参数与旋转矩阵标定;同时利用空间中距离已知的3个空间点即可线性标定两摄像机间的平移向量。通过标定实验对本文提出的方法进行了验证。结果表明:该方法标定精度能够达到0.51%,可以较高精度地标定双目测量系统。由于避免了大视场测量系统标定中大型标定物制造困难,以及摄像机自标定过程中算法冗杂,标定精度不高等问题,该方法操作简便,精度较好,适用于大视场双目测量系统的在线标定。 相似文献
11.
介绍了双目立体视觉三角测距原理和视觉测量系统,双目摄像机拍摄彩色图像,提取颜色、轮廓、纹理等识别特征用于目标区域识别。采用区域匹配算法获得视差图,根据视差计算目标区域的三维坐标信息。完成了目标测量实验并对实验结果进行分析。 相似文献
12.
一种双目立体视觉技术中三维坐标点的改进求取算法 总被引:1,自引:0,他引:1
在双目立体视觉技术中,经过特征提取和立体匹配得到两两对应的像素点对,根据摄像机标定建立的物体空间坐标到像平面坐标对应的矩阵,利用最小二乘法求取物体三维空间点的坐标。但是,由于最小二乘法没有考虑所建立的超限定方程组所代表的几何意义,计算出的点坐标精度不高。本文提出一种考虑方程组所代表几何意义的方法,利用异面直线公垂线中点去逼近物体空间点。 相似文献
13.
提出了一种介于传统标定和自标定的内外参数标定分离的方法。摄像机内部参数以透视成像模型为基础,用物理方法来提取;外参数标定时合理选取参考坐标系,通过实验分析求取两摄像头的外参数模型。该算法简单易懂,计算速度快,所需设备简单,实用性好。 相似文献
14.
为采用双目视觉进行室内移动机器人定位,开发了一种室内移动机器人定位系统。介绍了双目视觉在机器人定位中的原理,采用移动机器人和MicronTracker视觉系统构建了定位实验系统,进行了测距实验,并分析了测距精度,最大误差为8.644mm,在此基础上进行了移动机器人双目视觉定位实验。实验结果表明,双目视觉定位最大偏差为3.635cm,定位精度较高而且系统稳定性好,受环境因素影响小,可满足机器人的定位精度要求。 相似文献
15.
16.
17.
准确的立体视觉模型是机器人高精密视觉定位的基础,而传统的单一非线性优化算法难以实现稳定和高精度的机器人立体视觉标定。结合遗传算法全局搜索能力强和粒子群算法局部搜索能力强的特点,提出了一种基于混合群智能优化的机器人立体视觉三步标定方法。针对非线性视觉模型,标定第一步和第二步分别对两个摄像机模型单独作线性初值求解和初次非线性优化,第三步对双目立体视觉模型作联合非线性优化,直接线性变换、遗传算法、粒子群算法分别作用于标定的三个步骤,每一步计算的结果被用作下一步的初始化。仿真试验分析与实际试验结果表明,相对于传统的优化标定方法和使用单一群智能优化算法的标定方法,该方法在噪声环境下具有更高的准确性和鲁棒性,能够更好满足机器人精密视觉操作的需求。 相似文献
18.
针对PMP视觉测量中物体深度变化大或表面形状复杂时出现的误匹配问题,提出一种基于区域分割和视差修正的立体匹配方法。研究了四步相移法和多频外差相移的基本原理,并采用基于OpenCV的标定立体校正方法对光栅图像进行了校正;结合PMP视觉测量系统的特点对相机视场进行分析,根据视场各区域的相位信息特点以及视差约束,提出基于混合阈值的区域分割原则和实现方法;应用视差求解和视差校正获得有效的视差图,并在自主研发的PMP视觉测量系统中验证了立体匹配方法的有效性。 相似文献
19.
20.
针对半全局立体匹配中单一 Census 精度不足且边缘区域视差效果较差的问题,提出一种基于颜色差信息 BTCensus 和加入分割约束的半全局匹配算法。首先该算法采用联合三通道 BT 算法和 Census 变换的计算方式实现代价计算,缓解重复纹理歧义并提高不连续区域配精度;同时将图像分割得到的场景信息作为约束对代价聚合函数进行改进,保证割块内部的纹理平滑,提高边界纹理区域的匹配精度;最后引入图像分割信息进行分步中值滤波,平滑视差图。实验表明,该算法在重复纹理区域、视差不连续区域和弱纹理区域都取得了较好的视差效果,可获得高匹配率的视差图。 相似文献