首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
非合作旋转目标闭环检测与位姿优化   总被引:2,自引:0,他引:2  
若要实现空间失效卫星、空间碎片等非合作目标,尤其是具有自旋运动特性的目标的在轨服务或者离轨清除,需要精确测量追踪航天器与目标之间的相对姿态。当目标旋转一周后,对重访区域的闭环检测与位姿优化是减小累积误差,提高测量精度的重要保证。首先,本文介绍了视觉词袋库的建立和基于视觉词袋的非合作目标闭环检测策略。然后,基于相似性变换,对图像序列关键帧集和当前帧进行了联合位姿图优化,实现了对刚体变换矩阵的校正。最后对不同运动角速度下的不同目标,采用不同相机进行地面模拟测试实验,验证了方法的有效性和可靠性。实验结果表明:对于以12(°)/s角速度运动的非合作目标,当测量稳定后,绝对角度误差约为1(°),相对角度误差约为1%,平均角速度误差约为0.12(°)/s。可以满足非合作目标相对姿态测量的任务需求。  相似文献   

2.
星箭对接环是空间飞行器上普遍存在的结构,常在空间非合作抓捕任务中作为位姿测量与抓捕固定的特征部件。采用对接环空间圆特征进行视觉测量可以计算圆心位置,但圆心并非对接环实体结构,无法直接作为抓捕导航点。考虑对接环轮廓在图像中的几何不变特征,提出一种基于最短路径原则的环上抓捕点单目视觉导航方法,并给出了抓捕点导航参数计算模型。同时针对视觉测量中复杂目标环境的测量图像,提出了一种类圆轮廓提取方法,处理过程包括了图像中轮廓的分割、筛选与组合。通过数字仿真试验和半实物仿真试验进行验证,结果表明本方法能够有效剔除噪声轮廓,对接环上抓捕点测量准确稳定,抓捕点位置计算误差小于1 mm,角度误差小于0.5°。  相似文献   

3.
针对模型未知的空间非合作旋转目标的模型重建和位姿估计问题,利用激光雷达采集的3D点云,提出一种基于位姿图优化的SLAM技术框架,以解决跟踪过程中产生的累积误差问题。首先,根据迭代最近点(Iterative Closest Point,ICP)算法计算相邻关键帧之间的相对位姿信息,通过位姿跟踪方法获得当前关键帧的位姿,由此构建跟踪航天器的相对位姿图;采用GLAROT-3D(Geometric LAndmark relations ROTation-invariant 3D)全局描述子检测闭环,并将闭环约束添加到位姿图中;最后采用基于位姿图优化的方法进行位姿调整,并更新模型点云。在仿真实验中,噪声标准差达到100mm时,姿态测量误差小于2°;在地面实验中,姿态测量误差小于2.5°,并较好地重建了目标的点云模型,算法的精度及抗噪声能力基本满足非合作目标相对位姿测量的任务需求。  相似文献   

4.
冯春  吴洪涛  陈柏  乔兵 《中国机械工程》2013,24(12):1655-1660
提出了利用5个非共面特征光点和单目视觉的航天器相对位置和姿态参数测量的解析算法。首先,给出测量系统的基本结构和特征点的配置形式;然后,以3个对称结构特征点为一组,将5个特征光点分为两组,利用四元数测量算法,分别得到单目视觉的航天器相对位姿参数的方程组,结合2个方程组获得了航天器相对位姿参数的解析解形式,并对解析解进行修正;最后,通过计算实例对解析算法进行数学 仿真,结果表明:该算法能够满足航天器相对位姿确定精度和实时计算要求。  相似文献   

5.
本文提出一种基于立体视觉的空间非合作航天器相对位姿自主测量方法,用以解决在轨捕获中非合作航天器的相对位姿测量问题。该方法以航天器本体和星箭对接环作为识别特征,识别过程无需人员参与;同时,提出一种基于空间几何约束的特征匹配方法,运用空间几何约束引导匹配,在完成匹配的同时可直接获取特征的三维信息,实现特征匹配与重构的一体化;最后,利用空间向量对非合作航天器的相对位姿参数进行解算,充分利用冗余信息,以提高解算精度。实验结果表明,在航天器本体尺寸为280mm、相对距离为2m的条件下,本文方法的姿态测量误差小于1.5°,位置测量误差小于4mm,能够满足空间非合作航天器在轨捕获的相对位姿测量要求。  相似文献   

6.
针对单目相机采集室外图像易受环境光照影响、尺度存在不确定性的缺点,以及利用神经网络进行位姿估计不准确的问题,提出一种基于卷积神经网络(CNN)与扩展卡尔曼滤波(EKF)的单目视觉惯性里程计。采用神经网络取代传统里程计中基于几何约束的视觉前端,将单目相机输出的估计值作为测量更新,并通过神经网络优化EKF的误差协方差。利用EKF融合CNN输出的单目相机位姿和惯性测量单元(IMU)数据,优化CNN的位姿估计,补偿相机尺度信息与IMU累计误差,实现无人系统运动位姿的更新和估计。相比于使用单目图像的深度学习算法Depth-VO-Feat,所提算法融合单目图像和IMU数据进行位姿估计,KITTI数据集中09序列的平动、转动误差分别减少45.4%、47.8%,10序列的平动、转动误差分别减少68.1%、43.4%。实验结果表明所提算法能进行更准确的位姿估计,验证了算法的准确性和可行性。  相似文献   

7.
基于三维模型的空间目标视觉位姿测量   总被引:1,自引:0,他引:1  
传统空间合作目标视觉测量技术的适用范围受合作标志安装情况的限制。以边缘轮廓为合作特征,通过三维结构模型建立合作关系,提出一种适用范围更广的空间合作目标视觉位姿测量方法。方法生成不同观察方位的二维目标特征模板与测量图像进行搜索匹配,采用轮廓方向特征对匹配度进行评价,从最优匹配结果中解算目标位姿参数。采用离线预处理策略和两阶段图像金字塔搜索优化方法对处理过程进行加速。通过数字仿真试验和半实物仿真试验对方法的准确性和稳定性进行了验证,垂直光轴方向位置测量绝对误差优于2 mm,沿光轴方向位置测量相对误差优于0. 7%,姿态测量绝对误差优于0. 2°,单次位姿测量用时小于0. 5 s,能够满足空间目标导航需求。  相似文献   

8.
基于彩色图像的高速目标单目位姿测量方法   总被引:1,自引:0,他引:1       下载免费PDF全文
针对风洞分离实验对于视觉测量系统的高精度、大视场、高速的测量要求,提出一种基于单目摄像机的风洞运动目标位姿测量方法。该方法利用单目摄像机进行运动目标位姿信息测量,相比于双目测量方法具有设备简单、视场大的优点。首先提出一种基于靶标特征点相互约束关系的参数优化方法,采用复合式靶标实现摄像机的快速高精度标定;针对目标运动图像处理,提出一种基于图像差叠法和标记点位置估计的图像快速分割与目标定位方法,实现图像特征的快速准确定位;针对单目测量要求及目标运动特性,提出一种基于方向估计标记点布局方式,实现合作标记点的快速识别和提取;最后利用单目视觉原理求解运动目标的位置和姿态信息,通过实验室模拟实验完成了测量系统的精度验证,在1 m×1 m视场范围内,其位移测量精度可达到0.19 mm,俯仰和偏航角测量精度可达到0.18°。  相似文献   

9.
为了满足单目视觉系统对被测工件三维位姿参数测量及机器人实时快速响应要求,提出一种通过单目视觉获取规格已知、位置随机工件三维参数的方法。利用HALCON图像处理软件对机器人和工业相机进行系统标定,通过标定参数进行采集图像预处理、点特征坐标提取,引入约束条件建立三维位姿算法几何模型,完成上位机图像采集与数据处理,并实时将数据通过以太网传送至机器人,实现工件抓取。试验表明,这一方法误差范围达到了工业机器人操作的预期要求。  相似文献   

10.
为了实现对空间失效卫星、空间碎片等非合作目标,尤其是具有自旋运动特性的目标进行在轨服务或者离轨清除,需要精确完成追踪飞行器与目标飞行器之间的相对姿态测量。首先,以逆深度参数化表示相机在世界坐标系下的坐标值、高低角、方位角和深度信息,可以有效解决小视差情况下的单目视觉姿态估计。其次,建立了相机相对于非合作目标的运动模型和测量模型。最后,基于单点随机抽样和扩展卡尔曼滤波实现了相机和目标之间的相对运动姿态估计。实验结果表明:对于三轴稳定目标,接近过程中姿态测量精度约为0.5°;对于匀速慢旋目标,相对角度误差约为3.5%,平均角速度误差约为0.1°/s。可以满足工程上空间非合作目标相对姿态测量的使用需求。  相似文献   

11.
机器人加工几何误差建模研究:Ⅰ空间运动链与误差传递   总被引:1,自引:0,他引:1  
以机器人作为制造装备执行体,集成视觉等智能传感器,实现大型复杂零件小余量磨削/铣削/切边/制孔是智能制造的前沿研究方向之一,目前加工误差难以降低是制约其应用的主要难题.以加工误差降低为主要目标,以机器人、视觉传感器、工件、工具为主要对象,研究视觉引导的机器人加工几何误差建模与精度控制,具体包括:在第Ⅰ部分介绍几何误差建模与参数辨识国内外研究现状,研究机器人加工空间运动链与加工误差度量指标定义,推导静态误差(源于工件/工具位姿误差)定量传递模型与动态误差(源于关节运动学误差/关节弱刚度)定量传递模型;在第Ⅱ部分建立手眼位姿参数、工件位姿参数、工具位姿参数等精确辨识的目标函数与计算方法,在考虑关节运动学误差和弱刚度变形的情况下,提出面向整体误差控制的机器人加工(磨削/铣削/切边/制孔等)位姿优化通用模型.  相似文献   

12.
为了提高遥操作机器人虚拟环境几何学建模的精度,提出了一种基于视触融合的遥操作机器人虚拟环境几何学建模修正方法。首先基于视觉信息通过点云采集和预处理、粗细配准相结合的点云配准、表面重建、位姿测量实现了目标物的几何学建模;之后针对遥操作机器人的应用背景,设计了局部半自主和多指协同相结合的灵巧手控制方式,完成了目标物触觉点云的采集;最后采用视触融合的方法,使用KDtree将视觉点云和触觉点云进行融合,并利用视触融合点云对几何学模型进行修正。通过实验证明该方法对不同材质目标物的几何学建模的几何尺寸误差小于3.6 mm、定位误差小于6.8 mm、姿态角测量误差小于4.3°,且效果均优于基于视觉信息的几何学模型和基于触觉信息的几何学模型。该方法构建的几何学模型既包括了目标物的颜色信息,又提高了几何学模型的精度,且在模型细节处表现良好,有效结合了视觉和触觉两种模态信息的优点。  相似文献   

13.
工业机器人单目视觉对准技术研究   总被引:1,自引:0,他引:1  
针对工业机器人精确对准问题,提出了一种基于单目视觉的工业机器人对准技术。该技术把工业机器人与单目视觉测量技术相结合,根据特制的手眼标定板,快速建立单目视觉测量系统与机器人上对准轴之间的手眼关系和对准的基准位姿;在对准环节,通过单目视觉系统获取工件目标的姿态,然后根据已有的手眼关系和基准位姿,求解在机器人基坐标系下机器人末端的对准轴的位置调整量,迭代调整机器人末端位姿,从而实现了机械人末端的对准轴与工件目标的精确对准。实验结果表明:在测量距离约是150mm处,对准平均精度优于0.2°。  相似文献   

14.
车辆位姿估计是智慧交通系统的重要组成部分,然而复杂的运动场景以及单目相机存在无法获取深度信息等问题。本文提出了一种结合单目相机及车辆三维模型进行车辆位姿估计的方法。首先对多尺度的车辆目标进行尺度归一化,然后以向量场的形式回归车辆关键点的坐标提升在遮挡或者截断状态下的位姿估计精度。在此过程中提出使用基于距离加权的向量场损失函数和关键点误差最小化的投票方法,进一步提高了位姿估计算法的准确性。此外,本文制作了一个含有丰富标注信息的合成车辆位姿估计数据集,在其上的验证结果表明,本文算法的平均定位误差和角度误差分别为0.162 m和4.692°,在实际场景中有着非常大的应用价值。  相似文献   

15.
针对机械臂全工作空间域位姿误差估算,提出了非参数化约束的运动学误差综合解算与动态估算方法。基于误差等效微分变量和多关节运动的连杆坐标系误差等效微分变换,构建了机械臂运动学动态非参数化约束的位姿误差模型。将多因素产生末端位姿误差归结为与关节转角变量有关的周期性动态函数变化,实现了机械臂综合误差的动态函数化描述。根据多连杆坐标系关节运动耦合规律,设计了多关节运动空间坐标系位姿在线解耦变换与补偿算法。全工作空间域验证实验中,误差估算值与测量值之间的位置坐标的最大绝对值偏差小于0.01 mm,姿态角的最大绝对值偏差小于0.03°。实验结果表明,该方法可提高机械臂全工作空间域位姿误差估算的精度与可靠性。  相似文献   

16.
基于摄像机位姿估计的数学模型,提出了一种检测摄像机位移前后目标图像特征点的方法,通过求解摄像机发生位移前后的相对位姿矩阵来解决应用视觉图像获得点云的初始配准问题。首先,介绍了摄像机位姿估计模型,包括本质矩阵、旋转矩阵以及平移矩阵;然后,介绍了SURF算子的特征点检测、描述和匹配的方法,在此基础上面向双目视觉和单目结构光系统,分别提出了摄像机位移前后目标图像SURF特征点匹配和深度估计模型;最后,分别进行双目视觉和单目结构光系统点云的获取、位移前后目标图像特征点检测匹配和深度估计实验,应用摄像机位姿估计模型求解旋转矩阵和位移矩阵,并对位移矩阵进行统计分析剔除粗差。实验中采用基于点云空间特征点和基于图像的方法进行对比,点云对应特征点均方误差缩小至12.46mm。实验结果验证了方法的可行性,表明本文的点云初始配准方法能较好地获得点云精确配准初值。  相似文献   

17.
针对移动机械臂自主抓取作业过程中目标识别慢、作业精度低的问题,对基于单目视觉的目标识别与定位算法以及机器人作业精度提高方法展开了研究。以全向移动平台、工业机器人和单目相机等硬件为基础构建了一套移动机械臂抓取作业系统;对单目视觉模板匹配法进行了归纳,采用基于随机树分类的特征点匹配算法对目标进行快速准确地识别与定位;完成了相机内参数标定和机器人手眼位姿标定,分析了手眼位姿与抓取位姿的关系,提出了一种修正手眼位姿的抓取误差补偿方法,减小手眼标定误差对抓取误差的影响,最后进行了移动机械臂的抓取/放置实验。研究结果表明:采用上述方法能够快速准确识别目标,有效减小作业误差,并达到较高的作业精度。  相似文献   

18.
针对空间交会对接的近距离位姿测量要求,提出了一种基于单目视觉的二维合作目标位姿解算算法。为方便空中移动平台的调整以满足特定的位姿关系,引入了一种新的姿态角定义方法,此方法定义的三个姿态角可以作为平台姿态调整的反馈量且不受旋转顺序的限制。平面模型相对于相机坐标系的三个姿态角和位置向量可通过平面单应矩阵直接导出。在测量实验中,算法基于DSP平台实现,合作目标由4个共面LED光源构成,测量值基准由高精度倾角传感器和全站仪获得。对空间位置变化范围为2m×2m,姿态角变化范围为-30°~30°的目标平面进行测量,结果表明,本算法可实现0.88%的相对位置定位误差和最大为0.996°的姿态角测量误差,且单帧算法的解算速度仅为0.25ms。  相似文献   

19.
视觉里程计利用视频信息来估计相机运动的位姿参数,实现对智能体的定位。传统视觉里程计方法需要特征提取、特征匹配/跟踪、外点剔除、运动估计、优化等流程,解算非常复杂,因此,提出了基于卷积神经网络的方法来实现端对端的单目视觉里程计。借助卷积神经网络对彩色图片自动学习提取图像帧间变化的全局特征,将用于分类的卷积神经网络转化为帧间时序特征网络,通过三层全连接层输出相机的帧间相对位姿参数。在KITTI数据集上的实验结果表明,提出的Deep-CNN-VO模型可以较准确地估计车辆的运动轨迹,证明了方法的可行性。在简化了复杂模型的基础上,与传统的视觉里程计系统相比,该模型的精度也有所提高。  相似文献   

20.
单目视觉位姿测量的线性求解   总被引:7,自引:1,他引:6  
利用定位特征点在图像中的坐标求解空间位姿算法是单目视觉位姿测量技术中的关键.针对这个问题,在距离因子的基础上建立了非线性的位姿测量模型.利用代数变换方法将非线性测量模型转化成线性非齐次方程组.根据代数变换过程中变量之间的相互关系,建立方程组通解之间的乘积关系方程组.再次利用代数变换对乘积关系进行线性变换,并利用P4P问题中共面特征点姿态测量唯一解的特性,实现位姿测量的线性求解.通过数值仿真和实际测量两个试验对该位姿测量算法进行了精度验证,试验数据表明该方法可以有效抑制图像噪声干扰,提高位姿测量的精度.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号