共查询到20条相似文献,搜索用时 562 毫秒
1.
机器人测距技术是机器人导航、路径规划以及协作编队关键技术之一。基于透视投影几何原理,提出了单目视觉测距模型,实现物体测距。单目视觉测距模型实现了在摄像机与目标平面平行或者有夹角情况下,对目标物体距离的测量。实验结果表明,所提出的测距模型和和所用的算法,不仅避免了复杂的摄像机标定,而且测量速度快,能够实现对目标物体空间距离的精确测量。 相似文献
2.
针对微型空中机器人在室内环境下无法借助外部定位系统实现自主悬停的问题,提出一种基于单目视觉的自主悬停控制方法.采用一种四成分特征点描述符和一个多级筛选器进行特征点跟踪.根据单目视觉运动学估计机器人水平位置;根据低雷诺数下的空气阻力估计机器人飞行速度;结合位置和速度信息对机器人进行悬停控制.实验结果验证了该方法的有效性. 相似文献
3.
4.
5.
6.
基于手眼立体视觉的机器人定位系统 总被引:1,自引:0,他引:1
研发了基于手眼的机器人定位系统,采用了眼在手上的单目摄像机,通过机械手的一次移动实现了立体视觉的功能.提出了一种方便有效手眼标定方法,避免了复杂的传统手眼标定过程,无需求解摄像机外参数和手眼变换矩阵.仅获取标定时刻的摄像机综合参数和机器人位姿,就可以在机器人基坐标系中视场范围内的任意两点进行检测,根据立体视觉的约束关系求解出目标物体在机器人基坐标中的位置,进而实现对目标物体的精确定位. 相似文献
7.
为实现具有单目视觉的双足机器人对目标物体的定位测距,根据针孔成像和几何坐标变换原理,提出一种基于单目视觉系统自身固定参数计算目标物体深度信息的几何测距方法;该方法利用双足机器人自带的单目视觉系统的固定参数,通过几何映射关系求解目标物体在三维空间内的坐标位置及相对于机器人的距离,克服了由于外界环境变化以及对参照物识别时所产生的误差影响测距定位精度的问题,从而实现基于单目视觉的目标物体精确跟踪定位;并对所提出方法进行了实验,得到比理论结果误差较小的实验数据,证明了方法的可行性。 相似文献
8.
单目式自主机器人视觉导航中的测距研究 总被引:3,自引:0,他引:3
针对传统自主式机器人视觉测距方法的缺陷,提出了一种建立在B 对偶空间几何学上的单目摄像机标
定方法,并将其应用到单目式自主机器人的视觉测距中.与OpenCV 标定方法相比,新的标定方法对CCD 摄像机
内参数的计算更为准确,并减小单目视觉测距的总体误差.同时,在引入运动目标自动提取算法的基础上,将目标
车辆的自动检测与实时测距融合为一个完整的系统.通过实际的测量及对比试验,验证了所提出方法的有效性. 相似文献
9.
要测量出一组特征点分别在两个空间坐标系下的坐标,就可以求解两个空间目标间的位姿关系,实现上述目标位姿测量方法的前提条件是要保证该组特征点在不同坐标系下,其位置关系相同,但计算误差的存在却破坏了这种固定的位置关系,为此,提出了两种基于模型的三维视觉方法-基于模型的单目视觉和基于模型的双目视觉,前者从视觉计算的物理意义入手,通过简单的约束迭代求解实现模型约束,后者则将简单的约束最小二乘法和基于模型的单目视觉方法融合在一起来实现模型约束,引入模型约束后,单目视觉方法可以达到很高的测量精度,而基于模型的双目视觉较传统的无模型立体视觉方法位移精度提高有限,但姿态精度提高很多。 相似文献
10.
针对单目视觉机器人工件抓取与放置精度不高的问题,提出了基于位置的混合摄像机视觉伺服系统,采用Eye-in-hand和Eye-to-hand摄像机结合的模式,建立混合摄像机视觉机器人系统以实现工件的精确放置.Eye-in-hand摄像机实现对工件的定位和抓取,Eye-to-hand摄像机用于确定机械手爪中心轴线与工件中线的偏差,确保工件精确放置在期望位置.实验结果表明:该混合摄像机视觉伺服机器人系统能将工件准确放置在期望位置. 相似文献
11.
Sjoerd van der Zwaan Alexandre Bernardino Jos Santos-Victor 《Robotics and Autonomous Systems》2002,39(3-4):145-155
This paper describes the use of vision for navigation of mobile robots floating in 3D space. The problem addressed is that of automatic station keeping relative to some naturally textured environmental region. Due to the motion disturbances in the environment (currents), these tasks are important to keep the vehicle stabilized relative to an external reference frame. Assuming short range regions in the environment, vision can be used for local navigation, so that no global positioning methods are required. A planar environmental region is selected as a visual landmark and tracked throughout a monocular video sequence. For a camera moving in 3D space, the observed deformations of the tracked image region are according to planar projective transformations and reveal information about the robot relative position and orientation w.r.t. the landmark. This information is then used in a visual feedback loop so as to realize station keeping. Both the tracking system and the control design are discussed. Two robotic platforms are used for experimental validation, namely an indoor aerial blimp and a remote operated underwater vehicle. Results obtained from these experiments are described. 相似文献
12.
Dual-eyes Vision-based Docking System for Autonomous Underwater Vehicle: an Approach and Experiments
Myo Myint Kenta Yonemori Khin Nwe Lwin Akira Yanou Mamoru Minami 《Journal of Intelligent and Robotic Systems》2018,92(1):159-186
A critical challenge for autonomous underwater vehicles (AUVs) is the docking operation for applications such as sleeping under the mother ship, recharging batteries, transferring data, and new mission downloading. The final stage of docking at a unidirectional docking station requires the AUV to approach while keeping the pose (position and orientation) of the vehicle within an allowable range. The appropriate pose therefore demands a sensor unit and a control system that have high accuracy and robustness against disturbances existing in a real-world underwater environment. This paper presents a vision-based AUV docking system consisting of a 3D model-based matching method and Real-time Multi-step Genetic Algorithm (GA) for real-time estimation of the robot’s relative pose. Experiments using a remotely operated vehicle (ROV) with dual-eye cameras and a separate 3D marker were conducted in a small indoor pool. The experimental results confirmed that the proposed system is able to provide high homing accuracy and robustness against disturbances that influence not only the captured camera images but also the movement of the vehicle. A successful docking operation using stereo vision that is new and novel to the underwater vehicle environment was achieved and thus proved the effectiveness of the proposed system for AUV. 相似文献
13.
基于ReLU神经网络的移动目标视觉伺服研究 总被引:1,自引:0,他引:1
针对移动目标跟踪以及抓取的问题,提出一种基于ReLU网络模型的单目视觉伺服系统。首先建立机器人视觉系统,完成对目标跟踪以及特征提取的任务,并通过结合单目视觉模型对其位姿进行估计,从而得到目标状态;然后,利用ReLU神经网络对机械臂的逆运动学进行学习,并用训练后网络模型构建单目视觉伺服系统的控制策略来避免机器人逆运动学求解计算量大、多解等问题;最后,为了提高抓取成功率,对末端执行器的运动轨迹进行规划。实验在NAO机器人平台上进行,根据实验结果证明方法的有效性。 相似文献
14.
15.
随着自主式水下机器人的发展,水下探测技术成为新的研究热点。然而,吸收效应和散射效应导致水下获取的图像存在雾化和色彩偏差等缺陷。降质的水下图像在一定程度上降低了水下目标识别的准确性。为了改善水下图像质量,国内外学者对水下图像处理方法进行了深入研究。因水下图像处理方法对提升水下目标识别准确性具有良好的促进作用,故其具有重要的研究与分析价值。介绍了水下成像模型,分析了水下图像视觉质量下降的原理;根据水下物理成像模型将水下图像处理方法分为水下图像增强与水下图像复原,并分别对两类方法的研究现状进行分析与归纳;最后,总结与讨论了各类方法的优缺点,并展望了未来的发展方向。 相似文献
16.
针对海洋工程中采用的设备深海悬垂法安装过程,采用多摄像头视频运动分析方 法计算水下三维运动轨迹可用于指导海洋工程的结构安装和分析设备水下运动特征。水下视频 和图像的处理获取面临着诸多挑战,首先由于水下环境悬浮物和颗粒较多,光在水下发生了散 射,使水下图像发生了退化;其次水下视频运动分析遇到的一个主要障碍是光线的折射引起的 图像误差。由于光在水、玻璃、空气不同介质间发生折射,光路发生弯曲,陆地上的摄像机成 像模型在水中不再适用,需要提出新的水下摄像机成像模型。本文引入带光线折射的水下摄像 机成像模型,研究水下摄像机的内参数和外参数标定方法,利用固定布置的 3 个水下摄像机拍 摄的目标水下运动视频来计算水下目标的轨迹。该方法适用于水池环境下水下物体大范围运动, 可以得到较为精确的轨迹,并得到了实验验证。 相似文献
17.
18.
《Robotics, IEEE Transactions on》2009,25(3):701-716
19.
目的 针对水下人造目标的位姿参数估计问题,提出一种基于图像线特征与点云面特征的目标定位算法。方法 基于对人造物体成像后的边缘特征及其本身曲面特征的认知,将目标描述成为一种线特征与面特征的组合。首先依据指定线型对目标图像边缘进行线特征检测,初步定位目标在图像中的位置;然后采用RANSAC(random sample consensus)算法对投影到目标区域内的点云进行曲面特征检测,得到目标参数的近似值并从视场点云中提取目标点云;最后以超二次曲面作为目标的部件化模型,以检测到的目标参数为初值,建立3维目标尺寸和位姿估计的非线性目标函数,将该目标函数的优化结果作为3维目标的定位结果。结果 通过水下实验对算法的有效性进行验证,定位后的目标旋转轴角度偏差不超过2°,相对位置偏差不超过1%,单目标定位耗时不超过5 s。结论 实验结果表明,该算法的定位精度和耗时均能满足应用需要,可有效定位未知尺寸的人造目标,且对水下复杂环境有较强的适应性。 相似文献
20.
A new sensor‐based homing integrated guidance and control law is presented to drive an underactuated autonomous underwater vehicle (AUV) toward a fixed target, in 3‐D, using the information provided by an ultra‐short baseline (USBL) positioning system. The guidance and control law is first derived at a kinematic level, expressed on the space of the time differences of arrival (TDOAs), as directly measured by the USBL sensor, and assuming the plane wave approximation. Afterwards, the control law is extended for the dynamics of an underactuated AUV resorting to backstepping techniques. The proposed Lyapunov‐based control law yields almost global asymptotic stability (AGAS) in the absence of external disturbances and is further extended, keeping the same properties, to the case where known ocean currents affect the motion of the vehicle. Simulations are presented and discussed that illustrate the performance and behavior of the overall closed‐loop system in the presence of realistic sensor measurements and actuator saturation. Copyright © 2009 John Wiley & Sons, Ltd. 相似文献