首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
在系统研究可见光和红外图像融合技术的基础上,提出一种图像融合算法用以检测可见光图像中的隐含目标。为了在检测隐含目标的同时平滑图像中目标的边缘信息,采用双边滤波来去除噪声并在此基础上进行图像融合以获取图像完整信息。首先通过对图像添加噪声得到降质退化图像,然后采取双边滤波算法对降质图像进行平滑去噪,此后,再对滤波去噪后图像进行融合。结合双边滤波和图像融合方法,设计四种算法来验证双边滤波和图像融合在多源图像应用中的强大功能。研究测试了算法对可见光图像中因光线原因隐藏的人体目标检测性能。实验结果表明,该方法可以有效提高在背景图像中进行目标检测或识别的概率。  相似文献   

2.
由于单目摄像头尺度缺失,导致鲁棒位姿估计结果不准确,为此提出单目主动摄像头真实三维重建方法.通过融合机器人的控制信息和尺寸信息,得到单目相机的位置信息,利用位置信息计算出等效基线,根据变基线等效双目策略理论获取精度更高的深度估计;采用GoDec-RANSAC算法排除样本点中的局外点,估计鲁棒位姿;通过获取的位姿,估计最后一帧图像与第一帧图像之间的相对位姿,得到全局位姿估计,完成单目主动摄像头真实三维重建.仿真实验结果表明,该方法能够准确的估计鲁棒位姿.  相似文献   

3.
为了解决机器人系统工具端定位精度不高的问题,提出一种基于二维码修正机器人系统的位姿估计方法。通过机器人系统获取的地面定位修正二维码图像信息,计算出机器人系统实际位置与机器人示教位置的转换矩阵,并利用转换矩阵生成新的工件坐标系,按照新的工件坐标系移动机器人系统,到达修正后的目标位置。该方法使机器人工具端达到了高精度定位,修正了机器人系统的位姿偏差,精度可达到0.5 mm。  相似文献   

4.
基于立体视觉的非合作目标位姿测量   总被引:1,自引:0,他引:1  
非合作航天器间相对位姿(位置和姿态)测量,是实现非合作目标的交会与捕获等在轨服务的前提。本文研究一种基于立体视觉的位姿测量方法,包括图像采集、图像滤波、边缘检测、特征提取、目标识别、3D重建、相对位姿计算等步骤,并分别进行计算机仿真和在自制物理平台上的验证实验。仿真实验结果验证了该方法的准确性和有效性。  相似文献   

5.
《机器人》2016,(2)
针对机器人在没有任何初始位姿先验知识的情况下,通过传感器感知信息确定位姿的全局定位问题,将智能空间技术与ROS(robot operating system)服务机器人相结合,设计了一种智能空间技术支持下的基于WIFI指纹定位和蒙特卡洛粒子滤波定位的复合服务机器人全局定位系统.在该复合定位方法中,首先利用智能空间中的基于BP(backpropagation)神经网络的WIFI指纹定位对机器人进行粗定位,并将估计位置与估计误差发送给ROS服务机器人;在粗定位的基础上使用蒙特卡洛粒子滤波算法方法最终获得服务机器人的精确位置.实验结果表明,本文设计的系统实现了ROS机器人与智能空间之间的零配置与松耦合,可有效地提高服务机器人全局定位精度,缩短计算迭代时间.  相似文献   

6.
一种新型的并联机器人位姿立体视觉检测系统   总被引:1,自引:0,他引:1  
建立了一种并联机器人位姿立体视觉测量系统框架,主要包括图像采集与传输、摄像机标定、尺度不变量特征变换(SIFT)匹配、空间点重建和位姿测量五个部分。该系统基于SIFT,能够很好地处理图像在大视角有遮挡、平移、旋转、亮度和尺度变化时的特征点匹配,有较高的匹配精度,特别适用于对并联机器人多自由度和空间复杂运动的检测。最后使用该方法对并联机器人位姿检测做了仿真实验。  相似文献   

7.
建立一种基于视觉的并联机器人位姿检测系统框架,包括图像采集、图像处理、位姿检测、参数反馈4个部分。使用单目摄像头采集图像,以二自由度冗余机器人为控制对象,利用Haar特征提取对目标进行粗跟踪。进一步获得目标上特定的几个特征点,基于平行不变性原理,得到机器人末端操作器的实际位姿参数。通过求解机器人的逆运动学方程,得到电机的控制参数。实验和仿真验证了该系统的可行性。  相似文献   

8.
字符分割效果,直接影响识别精度。在处理亮度不均匀低质量图像中的压印字符时,由于亮度分布不均匀、目标字符与背景区域对比度较低,传统基于二值化图像的字符分割方法在处理上述情况下的压印字符时,难以确定最优二值化阈值,分割准确率较低。提出基于分割效果评价函数的迭代闭环反馈分割方法,通过建立评价函数对分割效果进行评估,以提高分割效率及准确率。借助加权平滑滤波,去除灰度波形图中的畸变波形;并利用广义学习矢量量化算法,确定最优滤波权重因子;通过分析波形变化趋势,确定字符分割位置。实验结果表明,该算法在批量处理亮度不均匀低质量图像中的压印字符时,分割准确率可达98.5%。  相似文献   

9.
机器人作业环境复杂、物料的随机摆放使得目标识别与定位精度低、实时性差,提出改进几何矩的移动机器人目标识别;采用RGB-D相机进行图像采集与深度信息获取;提出了基于HSV的改进自动阈值与形态学相结合的分割算法对目标物料进行识别,根据HSV颜色空间的特点结合Otsu算法对物料目标进行分割,通过高斯滤波与形态学低通滤波器OC-CO对分割后的目标进行滤波降噪和补全处理;提出了Graham与旋转卡壳相结合的算法寻找最小外接矩来获取目标物料的准确位姿;实验结果表明算法具有较高的准确性和鲁棒性。  相似文献   

10.
针对机器视觉领域对图像成像质量的要求,设计了基于FPGA的非线性双边滤波系统,通过双边滤波系统对噪声图像进行去噪预处理。从双边滤波原理、双边滤波“保边性”原因、双边滤波参数取值影响3方面对双边滤波系统进行理论分析,通过查找表使用、并行流水线处理等方式在FPGA上实现双边滤波系统,通过模块化设计和参数化编程的设计思想提升了双边滤波系统的可移植性。对设计的双边滤波系统进行测试验证,经双边滤波系统降噪后图像PSNR值提高了3.284 2 dB,SSIM值提高了21.82%,所设计的双边滤波系统起到了一定的噪声抑制作用。  相似文献   

11.
李知菲  陈源 《计算机应用》2014,34(8):2231-2234
针对Kinect镜头采集的深度图像一般有噪声和黑洞现象,直接应用于人体动作跟踪和识别等系统中效果差的问题,提出一种基于联合双边滤波器的深度图像滤波算法。算法利用联合双边滤波原理,将Kinect镜头同一时刻采集的深度图像和彩色图像作为输入,首先,用高斯核函数计算出深度图像的空间距离权值和RGB彩色图像的灰度权值;然后,将这两个权值相乘得到联合滤波权值,并利用快速高斯变换替换高斯核函数,设计出联合双边滤波器;最后,用此滤波器的滤波结果与噪声图像进行卷积运算实现Kinect深度图像滤波。实验结果表明,所提算法应用在人体动作识别和跟踪系统后,可显著提高在背景复杂场景中的抗噪能力,识别正确率提高17.3%,同时所提算法的平均耗时为371ms,远低于同类算法。所提算法保持了联合双边滤波平滑保边的优点,由于引入彩色图像作为引导图像,去噪的同时也能对黑洞进行修补,因此该算法在Kinect深度图像上的去噪和修复效果优于经典的双边滤波算法和联合双边滤波算法,且实时性强。  相似文献   

12.
针对建筑机器人饰面作业过程中常因视觉遮挡导致作业效率低的问题,使用增强现实解决遮挡并提出一种基于点云匹配的增强现实跟踪注册方法。利用目标模型点云与作业环境点云的匹配进行目标的初始定位;利用改进的相关滤波跟踪算法对目标进行跟踪获取目标位置;基于迭代最近点法对目标位姿进行估计。在跟踪注册过程中加入位姿优化,保证目标位姿估计精度。为了更加准确地跟踪目标位置,提出一种特征融合和尺度自适应的改进相关滤波目标跟踪算法。通过板材安装实验,表明跟踪注册方法精确性、实时性均较好,最小识别误差达到2.88 mm,具有良好的虚实融合效果。  相似文献   

13.
提出了分布式多传感器协作的条件粒子滤波算法以解决人与机器人位置的联合概率分布估计问题.全局视觉系统中,各视角独立运行图像平面上基于粒子滤波的目标跟踪,并利用地平面单应关系实现多视角目标主轴同步融合.视觉观测进一步与机器人激光数据以顺序滤波方式异步融合,提出包含人体位置假设的激光似然场模型以提高对机器人位姿误差的鲁棒性,并引入基于Kullback-Leibler距离的自适应采样以降低描述联合分布所需的粒子数目.实验验证了该方法能够在具有观测噪声且人—机位置均不确定的情况下利用多传感器协作实现基于地图的同时机器人定位与人体跟踪.  相似文献   

14.
针对工业遥操作机器人位姿定位过程中难以同步控制位置和姿态角,导致位姿定位准确性较差的问题,利用大数据聚类技术,从硬件和软件两个方面优化设计工业遥操作机器人位姿定位控制系统。通过位姿传感器的改装,保证传感器设备能够同时测量机器人位置与姿态,改装定位控制器和驱动器。在系统硬件的支持下,考虑机器人组成结构、运动原理和动力学理论,构建机器人数学模型,在该模型下模拟机器人遥操作过程,确定机器人位姿的定位控制目标。实时采集机器人位姿数据,利用大数据聚类技术计算定位控制量,在控制器的约束下,实现系统的位姿定位控制功能。通过系统测试实验得出结论:综合多种类型的运动情况,在优化设计系统的控制下,机器人的位置误差平均值为4.5mm,姿态角控制误差为0.04°。  相似文献   

15.
针对工业上常见的弱纹理、散乱堆叠的物体的检测和位姿估计问题,提出了一种基于实例分割网络与迭代优化方法的工件识别抓取系统.该系统包括图像获取、目标检测和位姿估计3个模块.图像获取模块中,设计了一种对偶RGB-D相机结构,通过融合3张深度图像来获得更高质量的深度数据;目标检测模块对实例分割网络Mask R-CNN(region-based convolutional neural network)进行了改进,同时以彩色图像和包含3维信息的HHA(horizontal disparity,height above ground,angle with gravity)特征作为输入,并在其内部增加了STN(空间变换网络)模块,提升对弱纹理物体的分割性能,结合点云信息分割目标点云;在目标检测模块的基础上,位姿估计模块利用改进的4PCS(4-points congruent set)算法和ICP(迭代最近点)算法将分割出的点云和目标模型的点云进行匹配和位姿精修,得到最终位姿估计的结果,机器人根据此结果完成抓取动作.在自采工件数据集上和实际搭建的分拣系统上进行实验,结果表明,该抓取系统能够对不同形状、弱纹理、散乱堆叠的物体实现快速的目标识别和位姿估计,位置误差可达1 mm,角度误差可达1°,其性能可满足实际应用的要求.  相似文献   

16.
在巡线机器人目标自动识别跟踪方法中,转换图像信号时易产生噪声,影响识别跟踪结果的准确率。为此,设计了一种新的高压输电线路巡线机器人目标自动识别跟踪方法。首先采用卡尔曼滤波技术对图像进行滤波处理,然后根据Haar-Like特征将图像转换为便于机器人识别的灰度图像。基于此,采取背景差分法排除灰度图像中非识别目标的背景,再根据亮度特性和色彩特性自动识别跟踪目标。以某地区的一段高压输电线路作为测试对象,实验结果显示,本文方法的识别图像受噪声影响较小,且自动识别跟踪的有效性更高。  相似文献   

17.
基于改进双边滤波的Kinect深度图像空洞修复算法研究   总被引:1,自引:0,他引:1  
深度图像的灰度值表征的是物体与摄像头的距离,深度图像在三维场景重建、虚拟视点合成、3D视频技术中起到关键的作用.深度图像有多种获取方法,其中Microsoft公司的Kinect是一种廉价的深度图像获取设备,但产生的深度图像在物体的边缘和遮挡区域往往会产生空洞,不利于后续的研究应用.提出一种基于改进双边滤波法的深度图像修复算法,首先利用直方图确定阈值将深度图像二值化生成空洞Mask掩膜,然后利用改进的双边滤波法对空洞区域进行深度填充,最后利用中值滤波法进行图像平滑,实验结果表明该方法对于原始深度图像的空洞取得了较好的修复效果.  相似文献   

18.
基于粒子滤波的单目视觉SLAM算法   总被引:3,自引:0,他引:3  
陈伟  吴涛  李政  贺汉根 《机器人》2008,30(3):1-248
针对携带有单目摄像机和码盘的微小机器人的定位与建图问题,提出了基于粒子滤波的SLAM(同时定位与建图)算法.从摄像机中提取图像特征点,并在图像序列中加以匹配,根据相应时刻的摄像机位姿计算得到对应的环境标志点坐标;机器人的大致位姿估计由码盘运动模型获得.在机器人移动过程中,环境标志点的观测信息和码盘信息通过粒子滤波相融合,从而提高了机器人定位的精度,同时也得到了更为准确的环境标志点坐标.仿真实验结果表明本算法有效、可靠.  相似文献   

19.
针对水下场景水下机器人(AUV)位姿数据集难以获取、现有的基于深度学习的位姿估计方法无法应用的问题,提出了一种基于合成数据的AUV视觉定位方法。首先基于Unity3D仿真搭建虚拟水下场景,通过虚拟相机获取仿真环境下已知的渲染位姿数据。其次,通过非配对图像转换工作实现渲染图片到真实水下场景下的风格迁移,结合已知渲染图片的位姿信息得到了合成的水下位姿数据集。最后,提出一种基于局部区域关键点投影的卷积神经网络(CNN)位姿估计方法,并基于合成数据训练网络,预测已知参考角点的2维投影,产生2D-3D点对,基于随机一致性采样的Perspective-n-Point(PnP)算法获得相对位置和姿态。本文在渲染数据集以及合成数据集上进行了定量实验,并在真实水下场景进行了定性实验,论证了所提出方法的有效性。实验结果表明,非配对图像转换能够有效消除渲染图像与真实水下图像之间的差距,所提出的局部区域关键点投影方法可以进行更有效的6D位姿估计。  相似文献   

20.
基于广义预测控制的移动机器人视觉导航   总被引:1,自引:1,他引:0       下载免费PDF全文
研究了室内环境下移动机器人的视觉导航问题。由单目传感器获取场景图像,利用颜色信息提取路径,采用最小二乘法拟合路径参数,简化图像处理过程,提高了算法的实时性。通过消除相对参考路径的距离偏差和角度偏差来修正机器人的位姿状态,实现机器人对路径的跟踪。为消除机器视觉识别和传输的耗时,达到实时控制,采用改进的多变量广义预测控制方法预测下一时刻控制信号的变化量来修正系统滞后。仿真和实验结果证明了控制算法的可靠性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号