共查询到20条相似文献,搜索用时 390 毫秒
1.
根据中型组机器人足球比赛的需要,设计并实现了一套由全向视觉、前向单目视觉和嵌入式视觉构成
的混合视觉系统.全向视觉具有360± 的水平视角,信息量大、实时性好,但近端信息的感知识别精度较低,前向单
目视觉和嵌入式视觉就是为了解决该问题而加入的.前向单目视觉主要用于识别位于机器人正面不远处的目标,且
可给出精确的目标位置信息,同时全向视觉和前向单目视觉的处理都是在机器人上位机上进行的.为了解决机器人
非前向近端信息缺失的问题,在不增加上位机负担的情况下,本文通过下位机的嵌入式视觉识别机器人周边非前向
近端的动态目标或障碍物,较好地解决了机器人360± 范围内近端信息的获取问题.实验结果表明,该视觉系统较好
地实现了对机器人远端、近端目标的识别. 相似文献
2.
3.
基于图象分割的机器人视觉系统的设计与实现 总被引:3,自引:0,他引:3
机器人视觉系统是自主机器人的重要组成部分,而如何精确高效的处理视觉信息是视觉系统的关键问题.本文介绍了一个包括离线颜色分析器和实时视觉信息处理器两大部分的机器人视觉系统。离线颜色分析器用于提取各种颜色的阈值,实时视觉信息处理器则利用阈值进行图象分割,从而使机器人准确认知当前环境。 相似文献
4.
5.
虚拟现实辅助机器人遥操作技术研究 总被引:8,自引:1,他引:7
本文以水下机器人的遥操作作业为应用背景,提出并实现了虚拟现实技术和视觉感知
信息辅助机器人遥操作实验系统.该系统使用了CAD模型和立体视觉信息完成遥操作机器人
及其作业环境的几何建模和运动学建模,实现了虚拟作业环境的生成和实时动态图形显示.
采用了基于立体视觉的虚拟环境与真实环境的一致性校正、图形图像叠加、作业体与环境位
姿关系建立、基于网络的监控通讯等关键技术.在这个实验系统中,操作人员可利用所生成
的虚拟环境,在多视点、多窗口作业状态图形和图像显示帮助下,实时动态地进行作业观测
与机器人遥操作与运动规划,为先进遥操作机器人系统的实现提供了经验和关键技术. 相似文献
6.
本文讨论了一种在高级机器人语言RAPT中使用视觉信息的方法.在这个方法中,视觉
信息主要用来发现机器人工作环境中物体的预期位置与实际位置间的差异,并对机器人的动
作进行相应的调整.符号推理系统使得大量的视觉信息处理工作得以在编译阶段进行,以保
证在程序运行阶段视觉系统工作的实时性.视觉信息框架结构使得机器人系统可以充分地利
用视觉信息,以更新其有关工作环境状态的信息. 相似文献
7.
8.
在FIRA MiroSot机器人足球比赛中,视觉系统是获得比赛场上机器人与球位置信息的唯一途径。视觉系统的识别速度、精度直接影响到比赛的胜负。针对传统视觉系统在机器人足球比赛中获取各实体的位置不够准确的问题,提出了一种结合数学形态学中腐蚀/膨胀算法来处理视觉系统中的实时图像,增加足球机器人视觉系统识别的精度的设计方案。实验结果表明,该方案在没有降低比赛中识别速度的前提下,大大地提高了识别精度。 相似文献
9.
10.
研究足球机器人比赛问题,比赛环境的光强度变化严重影响足球机器人视觉系统的识别性能.为提高机器人视觉识别率,提出了一种基于HSI颜色空间模型的光强自适应算法.算法将比赛场地划分为若干区域,利用HSI颜色空间模型可以分离环境光强度信息的特点,在比赛中动态更新所有划分区域的HSI颜色空间,提高了机器人视觉系统对光强变化的自适应能力,实现了机器人对比赛场地信息的精确辨识.因此用算法优化机器人视觉识别系统进行仿真.结果表明,在实际比赛中,算法能够有效降低环境光强度变化,大大提高了对足球机器人视觉辨识性能. 相似文献
11.
研究移动机器人在室内环境下集成双目视觉和激光测距仪信息进行障碍物实时检测。由双目视觉系统检测环境获取视差信息,通过直接对视差信息进行地平面拟合的方法快速检测障碍物;拟合过程中采用了随机采样一致性估计算法去除干扰点的影响,提高了障碍物检测的鲁棒性。用栅格地图表示基于机器人坐标系的地平面障碍物信息并对栅格信息进行提取,最后把双目视觉与激光测距得到的栅格信息进行集成。实验表明,通过传感信息集成,移动机器人既得到了充分的障碍物信息,又保证了检测的实时性、准确性。 相似文献
12.
针对当前遥操作工程机器人双目视觉定位技术匹配精准度低,导致定位误差过大的问题,提出种基于OpenCV改进的遥操作工程机器人双目视觉定位技术。在分析HSV色彩空间后,建立适合工程机器人的颜色特征识别空间体系,通过分析图像特征及运动坐标确定圆形光点,利用提供的靶点目标,创建模板后通过双目视觉获取具有靶点特征的其他图像,将图像代入OpenCV技术函数库中。在OpenCV技术函数库中通过光流法对图像进行函数匹配,应用将目标的背景模型与图像的处理方式分割开来,提取背景与干扰因素的全部信息,利用二值化阈值处理运动目标的形态,实现无干扰图像显示,确保定位结果的准确性。实验结果表明,基于OpenCV的遥操作工程机器人双目视觉定位技术能够有效提高匹配精度,降低定位误差,具有一定的实际应用价值。 相似文献
13.
基于SIFT特征描述子的立体匹配算法 总被引:1,自引:0,他引:1
目前,立体匹配是计算机视觉领域最活跃的研究课题之一。为了克服传统的局部特征匹配算法对噪声和图像灰度的非线性变换敏感的缺点,本文提出了一种新的基于SIFT(Scale Invariant Feature Transform)特征描述子的立体匹配算法。该算法利用图像梯度信息,构造基于三维梯度方向直方图的SIFT特征描述子作为区域特征描述符,通过立体视觉理论中的极线约束将匹配特征的搜索空间从二维降到一维,最后以基于特征描述子欧氏距离的最近邻匹配得到匹配结果。实验结果表明,该方法匹配精度高,对图像灰度的非线性变换比较鲁棒,可以应用于对匹配算法鲁棒性要求比较高的立体视觉系统中。 相似文献
14.
15.
16.
基于参考像面法的CCD摄像机标定新技术 总被引:4,自引:3,他引:1
摄像机标定是计算机视觉检测中必不可少的步骤.在现有的摄像机参数标定算法中,纯线性算法标定速度快,但标定精度不是很高;相反如采用非线性搜索算法,标定精度高,但存在标定速度慢以及会出现不收敛现象.通过对现有线性标定算法的研究,提出一种既考虑摄像机的径向和切向畸变,又能实现全线性化求解的全新标定算法--参考像面法.经验证该方法标定速度快、精度较高、算法健壮,适用于大型视觉系统多摄像机的快速标定. 相似文献
17.
本文讨论了一种利用视觉信息对限定性物体在三维空间定位的方法。这项工作是一个在脱机的高级机器人语言控制下验证视觉系统的一部分。本文对这一视觉系统的整体结构及其与高级机器人语言系统的关系做了概要的介绍,并且着重讨论了其中的低级视觉信息处理模块的工作原理,以及利用视觉信息对三维空间中的物体进行定位的精度 相似文献
18.
19.
多传感信息融合是实现轨道线形高精度检测的重要方法,而加速度计和陀螺仪是多传感信息融合中的关键传感器。为了解决加速度计和陀螺仪存在累积误差导致测量精度较低的问题,提出一种基于多传感信息融合的轨道线形检测方法。基于捷联惯性系统和双目视觉的测量原理,建立了双目视觉与惯性测量结合的多传感数据融合模型,并利用扩展卡尔曼滤波实现了双目视觉、加速度计和陀螺仪测量信息的融合,提高轨道线形检测精度。通过实验进行验证,结果表明:基于多传感信息融合方法的测量精度比惯性测量方法提高了近9倍,且测量所得坐标在三个方向上的最大位移绝对误差不超过0.536mm,可有效实现高精度轨道线形检测。 相似文献
20.
《Sensors and actuators. A, Physical》2006,125(2):192-209
Intelligent autonomous mobile robots must be able to sense and recognize 3D indoor space where they live or work. However, robots are frequently situated in cluttered environments with various objects hard to be robustly perceived. Although the monocular and binocular vision sensors have been widely used for mobile robots, they suffer from image intensity variations, insufficient feature information and correspondence problems. In this paper, we propose a new 3D sensing system, in which the laser-structured-lighting method is basically utilized because of the robustness on the nature of the navigation environment and the easy extraction of feature information of interest. The proposed active trinocular vision system is composed of the flexible multi-stripe laser projector and two cameras arranged with a triangular shape. By modeling the laser projector as a virtual camera and using the trinocular epipolar constraints, the matching pairs of line features observed into two real camera images are established, and 3D information from one-shot image can be extracted on the patterned scene. For robust feature matching, here we propose a new correspondence matching technique based on line grouping and probabilistic voting. Finally, a series of experimental tests is performed to show the simplicity, efficiency, and accuracy of this proposed sensor system for 3D environment sensing and recognition. 相似文献