首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 93 毫秒
1.
基于激光传感器的工件外径尺寸检测系统   总被引:1,自引:0,他引:1  
本文介绍了CCD激光传感器检测轴类工件外径尺寸的基本原理,运动系统及软件设计。该系统采用工控机和运动控制卡控制伺服电机来带动激光传感器运动,激光传感器连续扫描工件外轮廓,将测得数据传入计算机进行处理,计算出工件外径主要尺寸参数,并可保存和打印所测数据。  相似文献   

2.
本文首先提出了机器人直接驱动系统对位置传感器的要求,然后对现有的几种位置传感器进行了分析,最后给出了磁阻式多极旋转变压器以及轴角数字转换器(RDC)构成的高精度位置传感器的分析与设计。  相似文献   

3.
本文介绍了机器人视觉系统标定的现状,以及现行标定方法的优缺点。在相机固定、机器人末端执行器在平面内运动的场合,本文利用机器人系统的通讯功能,触发相机对同一目标位置在拍照平面内多次移动机器人末端执行器的位置进行拍照,然后通过机器人程序记录多组图像点、机器人坐标点,并引入最小二乘法进行标定图像点、机器人坐标点关系,并编写相关机器人程序自动计算标定的关系因子,并进行了可靠性验证,证明了改进法计算出的工件坐标误差比常规两点方法计算出的工件坐标误差大大减小,提高了标定的速度、便捷程度、标定精度。  相似文献   

4.
基于0V7620的机器人视觉导航系统设计   总被引:1,自引:0,他引:1  
朱翔  潘峥嵘 《电子测量技术》2010,33(1):64-66,73
视觉导航技术是移动机器人智能化研究的关键技术。本文介绍了一种基于CMOS图像传感器OV7620的视觉导航系统,通过分析OV7620的工作机理,采用FPGA和FIFO存储器协调工作进行图像采集缓冲,同时利用高速单片机实现视觉导航算法。实验表明本系统设计合理,集成度高,控制精确,有一定的实用价值。  相似文献   

5.
机器人视觉伺服系统的性能与图像特征密切关联。本文主要讨论几何矩和空间变换两种图像特征,并对特征空间变换算法进行了详细的研究。实验结果表明矩特征对外界的干扰是敏感的,而空间变换图像特征具有更强的抗噪能力。  相似文献   

6.
提出了一种新的利用激光扫描图像编码方法的三维视觉系统,着重讨论了系统同步控制及其标定问题。实验结果表明,激光扫描图像编码方法有效地减少了图像采集、处理量、文中提出的标定方法精度高,系统同步误差小于0.02%,系统测量误差小于1%。  相似文献   

7.
本文介绍了一种基于机器视觉的码垛机器人系统。该系统包括机器人、机器人视觉系统、端拾器、皮带机、传感器以及PLC控制系统。该系统可以实现对板料的自动识别和对位置的纠偏,适应板料的位置并且实现自动抓取。该系统是沈阳北盛汽车有限公司自动化开卷线的一部分,现已投入使用,在运行过程中,运行状态良好,满足生产需求。  相似文献   

8.
9.
基于机器视觉的机器人分拣系统能够感知环境的变化,当作业环境发生变化时,通过相机视野做出应对,在分拣作业中有着较强的适应能力。文章主要论述了机器人分拣系统的工作流程,分析了基于机器视觉的机器人分拣系统的硬件构成,探讨了基于机器视觉的机器人分拣系统的设计,最后分析了功能的实现。  相似文献   

10.
针对三维视觉定位问题,提出了一种基于kalman滤波的机器人眼在手上视觉定位方法。利用图像的全局特征描述子—图像矩来提取目标的三维图像特征,在不标定摄像机和机器人坐标变换关系的情况下,采用kalman滤波估计算法对图像雅可比矩阵进行在线辨识,并建立图像特征反馈控制,使定位目标物体的图像坐标始终保持在图像平面的中心位置。利用MATLAB仿真软件建立了基于kalman滤波的机器人眼在手上视觉定位仿真模型,实现了机器人的三维视觉定位。实验研究表明,该方法可以使机器人到达目标位置,且定位精度较高。  相似文献   

11.
随着AMT和DCT变速箱在汽车上的应用,与之匹配的换挡操纵机构也由SBW(电子式)取代了原来的机械式,其核心部分之一的挡位采集系统现在基本上由开关Hall和线性Hall来实现,但它们都不同程度的具体一定的局限性.而3D Hall传感器具有感知一定范围内x,y,z 3个位置的功能,因此引入3D Hall传感器来优化SBW...  相似文献   

12.
针对绝缘斗臂车空间机械臂中的双目视觉系统,文章研究了视觉系统中两个全景相机参数的最优设计和标定问题,构造了对系统中摄像机位置、方向和镜面形状等因素进行优化配置后的模型,以获得更高的三维数据测量精度。为了构造最佳视觉系统配置,根据数据计算过程中的误差传播分析、图像像素量化精度和角度分辨率变化,推导了三维测量误差模型的解析公式。然后,将该公式用于框架优化中,能够针对不同形状的系统设置环境找到最佳系统配置。对于具有长方体三维测量区域和相机放置区域的常规情况,利用所提出的解析公式推导其系统配置的次优解,并证明了该次优解的精度趋近于其最优解。最后,仿真和实际应用案例的实验结果表明了所提出方法可有效提高双目测距的准确性与鲁棒性,且运行速度较快。  相似文献   

13.
针对TOF相机三维信息可视化中的突变、拉伸、毛刺等的问题,提出了一种基于仿人视觉映射的TOF相机三维数据信息可视化效果改善处理方法.方法首先研究分析了TOF三维相机和人类视觉系统感知原理,探寻突变、拉伸和毛刺现象的原因.在此基础上,提出了将TOF三维信息的锥形区域显示映射为人类视觉系统平行光模式的视觉映射模型,通过该映射处理达到逼近人类视觉的效果.该算法对多个不同场景进行了实验验证分析,结果表明该方法有效解决了三维显示中的变形和异常问题,有效改善了三维视觉可视化效果,并保持了三维目标的良好空间连续性.  相似文献   

14.
传统的点胶设备通常是基于人工手动固定输入点胶位置及点胶路径来驱动点胶阀的半自动化设备,这样的设备不仅无法适应某些有一定尺寸公差的产品,而且生产效率也打不到理想水平。针对这种情况,该系统把视觉技术引入到点胶位置的测量过程中,设计了一种利用视觉技术抓取点胶位置的自动化点胶系统。基于 Visual C#编程平台利用eVision图像处理软件对胶片的图像进行分析,利用图像预处理和形态学操作来实现点胶起始坐标的提取。实验表明:系统的点胶精度可达0.014 mm,重复精度可以控制在0.012 mm以内,很大程度上解决了传统点胶技术稳定性差、点胶精度低的问题。  相似文献   

15.
为实现对自由曲面三维形貌的快速高精度测量,文中提出基于激光扫描的视觉测量方法及结构.该方案结构简单,测量速度快,实现了完全自动化.在汽车制造、航天、模具等重要行业中具有可观的应用前景.  相似文献   

16.
为了改进单一传感器对目标物体的检测范围小、检测特征少以及检测准确率较低的问题,提出一种视觉与二维激光雷达的目标检测方法。在视觉检测方面提出一种改进的GoogLeNet算法实现视觉对目标物体的识别,该方法相比GoogLeNet算法在对6种目标物体的识别准确率上提高了0.7%。在二维激光雷达检测方面采用欧氏聚类算法对二维激光雷达的点云数据聚类,接着使用RANSAC算法对聚类簇中的数据点进行筛选,最后使用卡尔曼滤波算法对目标物体的位置进行预测,实现二维激光雷达在特定平面上360°对目标物体进行跟踪检测和定位。实验结果表明,该方法使得移动机器人扩大了检测范围、增加了检测特征并提高了识别准确率。  相似文献   

17.
将CMOS摄像机与高速FPGA相结合,构建了一种适用于生产现场的小型化高速智能视觉传感器。智能化的视觉传感器集图像采集和图像处理于一身,极大地减小了视觉检测系统的体积,适用于对测量速度要求高,测量空间较小的场合。  相似文献   

18.
基于双目立体视觉的目标测距系统   总被引:1,自引:0,他引:1  
双目立体视觉能够在多种条件下感知三维场景的立体信息,基于双目立体视觉的测距以其特有的优势在测距中扮演着越来越重要的角色.研究了双目测距的原理、摄像机的标定、立体校正、立体匹配等关键技术,在此基础上提出了用MATLAB和OpenCV相结合的方法实现双目立体视觉的测距.使用MATLAB进行相机的标定,然后借助OpenCV实现立体校正和立体匹配.通过立体匹配得出的视差值,可以求解出目标和相机之间的距离实现测距.通过实验的结果表明,提出的双目测距方法在一定范围内达到了精度要求.  相似文献   

19.
This paper describes an unusual behavior detection system based on an omnidirectional vision sensor, as one of the important elements in realizing “Sensing and Robotic Support Rooms” for elderly people. Such support rooms are expected to be further developed in the future with advanced abilities to automatically recognize elderly people's actions and behavior patterns, to detect unusual patterns by using sensors, and to support their daily motions by using robotic manipulator control systems. The proposed monitoring system using an omnidirectional vision sensor automatically learns daily behavior patterns and detects unusual behavior patterns and actions by using the Bayesian network approach. The Bayesian network is constructed by using image feature values such as area and center‐of‐gravity values extracted from a captured image sequence, and the respective behavior patterns are represented as conditional probabilities. Unusual behavior patterns can be automatically detected on the basis of the low generation probability values. Experiments based on the investigation of elderly people's typical daily behavior patterns have shown the effectiveness of the proposed system. © 2010 Wiley Periodicals, Inc. Electr Eng Jpn, 172(3): 42–51, 2010; Published online in Wiley InterScience ( www.interscience.wiley.com ). DOI 10.1002/eej.20990  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号