首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
为了在兼顾形状匹配算法的检索率和运算效率的同时实现部分遮挡目标的精确匹配,提出了一种基于弦角轮廓特征的形状描述算法。该算法基于轮廓点的空间位置关系构造每个轮廓采样点的弦角轮廓特征描述子,利用描述子的自包含属性描述开轮廓的形状特征。采用L1度量方法计算两个轮廓点的弦描述子之间的距离,获得匹配代价矩阵。最后利用积分图算法计算匹配代价矩阵的相似度,实现部分遮挡目标的识别。基于MPEG-7形状数据库和Kimia216形状数据库进行了目标识别实验。实验结果表明:该算法对部分遮挡目标具有良好的鲁棒性,而且有较高的运算效率,部分匹配的检索率达到83.63%,提高了19.09%,实验结果优于现有部分遮挡形状匹配算法。该算法较好地满足了遮挡形状的匹配和识别对速度、准确率和抗遮挡能力等方面的要求。  相似文献   

2.
基于视觉的移动机器人目标跟踪方法   总被引:1,自引:0,他引:1  
为实现对行人目标进行快速稳定地跟踪并简化机器人系统,提出一种快速判别尺度空间相关滤波目标跟踪算法(fDSST)与卡尔曼滤波结合的跟踪方法,解决了跟踪过程中因遮挡造成的目标坐标信息丢失问题。根据相关滤波响应图的震荡剧烈程度设置遮挡判断标准,利用遮挡判断标准实现fDSST跟踪算法与卡尔曼滤波算法的切换,持续输出目标的位置坐标信息,提升了算法的鲁棒性。移动机器人根据视觉跟踪算法提供的图像坐标,利用基于图像的伺服控制策略完成对目标的跟随任务,简化了移动机器人系统结构。最后将该方法在OTB2013测试集上和移动机器人中进行实验,实验结果表明,该方法对于目标遮挡及尺度变化具有较强的鲁棒性和准确性,同时满足实时性要求。  相似文献   

3.
为了提高行人重识别准确率,并针对当前数据集较小容易产生的过拟合问题,提出一种基于孪生网络和多距离融合的算法,并将其运用到行人再识别任务中。首先,利用孪生网络提取输入局部块的特征,并使用改进的inception模块,使提取到的特征具有辨别性和鲁棒性;然后,基于提取到的图像特征,利用多距离融合算法在特征空间度量其特征匹配优化距离,利用Chamfer距离变换获取跨摄像头行人的鲁棒空间距离并进行多距离融合;最后,利用融合距离进行行人重排序,并在当前流行的VIPeR和CUHK03公开数据集上进行实验。实验结果表明,所提出的算法有效地提高了行人再识别的准确率。  相似文献   

4.
针对行人检测中计算量大、训练分类器耗时和无法满足实时性要求等问题,提出了一种基于双目视觉的行人目标定位方法。该方法利用图像处理技术获取候选轮廓,将轮廓的几何特征作为约束条件来筛选候选轮廓;利用双目视觉获取轮廓的深度信息后,将深度信息作为约束条件对候选轮廓进行进一步筛选。通过深度信息和几何信息的共同约束,识别出行人的头部轮廓,从而实现对行人目标的定位。实验结果表明,该方法减小了计算量,提高了检测精度。  相似文献   

5.
行人再识别是视觉监控系统的核心问题之一,然而传统基于彩色图像的特征提取方法难以用于极暗光照条件下的行人再识别。本文提出一种基于深度测量的行人体态特征提取方法,由于深度测量独立于光照条件,因此所提方法可以在极暗光照条件下对行人目标进行有效识别。由深度数据经过分割和滤波生成人体点云,将观测点云与初始人体模型进行配准,基于配准后的点云对人体模型的体态参数和姿态参数进行联合估计,计算体态特征向量的欧式距离实现行人再识别。在公开数据集和实验室自采数据集上进行验证,计算Rank-n、累计匹配曲线、平均精度均值等性能指标,其中在Single shot评估模式下BIWI数据集的Rank-1可达到70.71%、Rank-5可达到92.32%,结果表明本文所提算法可有效提高再识别精度。  相似文献   

6.
针对自主驾驶车辆在真实驾驶环境下对低辨识目标的识别问题,提出了基于多模态特征融合的目标检测方法。基于Faster R-CNN算法设计多模态深度卷积神经网络,融合彩色图像、偏振图像、红外图像特征,提高对低辨识目标的检测性能;开发多模态(3种)图像低辨识度目标实时检测系统,探索多模态图像特征融合在自动驾驶智能感知系统中的应用。建立了人工标注过的多模态(3种)图像低辨识目标数据集,对深度学习神经网络进行训练,优化内部参数,使得该系统适用于复杂环境下对行人、车辆目标的检测和识别。实验结果表明,相对于传统的单模态目标检测算法,基于多模态特征融合的深度卷积神经网络对复杂环境下的低辨识目标具有更好的检测和识别性能。  相似文献   

7.
针对自主驾驶车辆在真实驾驶环境下对低辨识目标的识别问题,提出了基于多模态特征融合的目标检测方法。基于Faster R-CNN算法设计多模态深度卷积神经网络,融合彩色图像、偏振图像、红外图像特征,提高对低辨识目标的检测性能;开发多模态(3种)图像低辨识度目标实时检测系统,探索多模态图像特征融合在自动驾驶智能感知系统中的应用。建立了人工标注过的多模态(3种)图像低辨识目标数据集,对深度学习神经网络进行训练,优化内部参数,使得该系统适用于复杂环境下对行人、车辆目标的检测和识别。实验结果表明,相对于传统的单模态目标检测算法,基于多模态特征融合的深度卷积神经网络对复杂环境下的低辨识目标具有更好的检测和识别性能。  相似文献   

8.
提出了一种基于双向长短时记忆网络(long short-term memory, LSTM)的实时人体姿势识别方法。将OpenPose作为人体姿态估计模块获取人体的二维关节点数据,根据数据缺失情况判断人体是否处于遮挡状态。对于非遮挡情况,构建基于双向LSTM的分类器,将初始的二维关节点信息送入分类器进行人体姿势识别;对于遮挡状态,利用深度摄像机内参进行三维映射,构建躯干向量和关节角度,使用主成分分析对上述高维特征进行处理后送入分类器进行人体姿势识别。在KTH数据集以及实验室收集的包含5种人体姿势的数据集上进行验证,结果表明,该算法在非遮挡情况下准确率较传统模型以及深度学习模型分别取得了2.63%和1.08%的提升。在遮挡情况下准确率较传统模型取得了5.6%的提升。实现了在复杂环境下的人体姿势识别。  相似文献   

9.
一种基于车辆遮挡模型的车流量统计算法   总被引:3,自引:0,他引:3  
传统视频检测车流量统计利用车辆跟踪解决遮挡问题,算法复杂且容易受到外界干扰影响,为此建立了若干车辆遮挡模型,利用分层轮廓匹配法将运动目标与车辆遮挡模型进行轮廓匹配识别出遮挡车辆。为了提取运动目标完整外部轮廓,提出一种基于连通域的两轮扫描法来标记各个运动车辆,并利用YUV彩色空间对阴影进行检测和抑制,提高车流量统计精度。实验结果表明,该方法能有效识别遮挡车辆,具有较高的车流量统计精度。  相似文献   

10.
针对传统目标检测方法不能兼顾目标识别精度和检测实时性,且在实际生产复杂工况下识别效果不佳的问题,提出一种基于Inception-SSD框架的零件深度学习识别方法。首先,提出了融合Inception预测结构的SSD优化框架Inception-SSD,将Inception网络结构引入到SSD网络额外层中,并使用批量标准化模块(BN)和残差结构连接,从而捕获更多目标信息而又不会增加网络复杂性,以提高检测准确率而又不影响其检测速度,并增加算法鲁棒性;然后提出在原损失函数基础上增加排斥损失项以改进损失函数,同时采用一种基于加权算法的非极大值抑制方法,克服模型表达能力不足的缺点。最后,将改进前后SSD算法在自制零件数据集上进行训练和测试,实验结果表明:本文方法在实际生产过程复杂情况下检测准确率达到97.8%,相比原SSD算法提升11.7%,检测速率41 frame/s。在提高检测精度同时还保证了实时性,能够满足实际生产环境零件检测需求。  相似文献   

11.
在辅助行走或步行康复训练过程中,助行机器人在紧密跟随人体步态的基础上,准确识别异常行为是人机交互的重要研究内容。为此,提出一种兼具通用性、鲁棒性与便捷性的非接触式多模态步行意图识别方法,能够准确识别多种步态并柔顺地控制机器人运行。首先,分析了步行辅助机器人和步行康复训练机器人的结构、功能与运动学模型,建立了内嵌式机载步态信息检测系统,从而准确描述步态变化规律;其次,为有效解决标志点丢失问题,提出了一种新型的扩展集员滤波算法来精确估计膝关节角度;最后,通过引入用户步态信息,建立了一种基于步态补偿的柔性控制方法并进行了实验研究。实验表明,提出的算法能够在有效克服标记点丢失的情况下,准确识别交互过程中的正常步态,并柔顺地控制机器人运动,同时对跌倒和拖拽步态进行有效识别,识别率分别达到91.3%和89.3%。该非接触式步态意图识别方法可以应用于具有类似结构的助行器及其日常助行与康复训练场景。  相似文献   

12.
为提高监控视频中行人异常行为检测效率,提出了结合关键帧定位和时空图卷积的异常行为识别方法。该方法在人体骨架关键点检测的基础上,采用关键点运动特性定位视频中行人异常行为关键序列,利用时空图卷积网络可以提取行人时空特征的优点,在关键帧序列上构建人体骨架时空图,同时建立基于瓶颈残差模块的时空图卷积网络行为识别模型,实现对监控视频中行人异常行为的高效识别。采用自建数据集和公开数据集对该方法有效性进行检验,结果表明,该键帧定位算法可高效实现异常行为定位,结合基于瓶颈残差模块时空图卷积网络,在减少时空图卷积网络计算复杂度的同时提升了网络性能,能够有效判断行人异常行为。  相似文献   

13.
在计算机辅助设计与制造系统中,加工特征识别是一项关键技术。针对传统的特征识别技术可扩展性差、鲁棒性差等问题,提出一种基于点云深度学习的加工特征识别方法。通过对加工特征表面进行均匀点采样,构建加工特征的点云数据集。使用K近邻算法构建点云的旋转不变表示,提出一种融入几何先验知识的点云分类网络。对于多特征模型的点云数据,提出一种加工特征点集的提取方法和相交特征的分离方法。通过具体实例验证了所提方法的有效性,表明该方法能识别CAD模型中的单一特征和相交特征。  相似文献   

14.
多目标跟踪在诸多行业中具有广泛的应用前景,但也面临着目标形变、目标重叠、目标数量变化、遮挡和自遮挡以及缺少足够的标记数据等难题。由于深度学习的快速发展,使用深度学习的多目标跟踪方法迅速发展,有效的提升了多目标跟踪的性能。介绍了深度学习的多目标跟踪研究进展,并将其分为基于深度特征、基于端到端数据关联、基于单目标跟踪器扩展和联合检测跟踪的四类方法,详细说明每类方法的设计原理及其优缺点。最后,介绍了常用的数据集和评价指标并对比相关算法的性能,针对现有的多目标跟踪算法的不足,展望未来的发展趋势,以期为多目标跟踪的深入研究提供理论支持和技术指导。  相似文献   

15.
为了提升无人艇对典型水面小目标感知能力,本文提出了基于多尺度卷积融合结构和空间注意力加强的改进型SSD目标检测算法。首先,对SSD浅层网络进行多尺度卷积融合,提升浅层网络的语义信息;其次,设计空间注意力结构对卷积特征层逐个增强,提升对弱纹理小目标特征保持性;最后,在VOC公开数据集和自构水面目标数据集上进行了测试,并基于无人艇开展了真实海域目标检测识别验证。实验结果表明,该算法在无人艇Nvidia平台的运行效率可达15 fps,能准确检测识别浮标、桥墩、渔船、快艇和货船等目标,在典型海面场景虚警率为5%时的小目标检测率相对原生SSD算法提升近20.2%,平均有效检测率达到79.3%。  相似文献   

16.
针对机器人运动步态识别方法存在有效识别率较低等问题,提出一种基于多维数据关联的机器人运动步态识别方法.首先通过背景减除法进行图像提取,采用形态学方法去除图像中的噪声及空洞;然后使用多维数据关联提取机器人运动步态轮廓形状静态特征,将计算动作能量图(AEI)以及步态能量图(GEI)进行对比分析,获取GEI更多的动态能量信息;最后通过FEI进行Fan—Beam变换,采用核主成分分析进行空间降维,获取运动目标的频率动态特征,将两个特征进行融合实现机器人运动步态识别.实验结果表明,研究方法能够快速、准确实现机器人运动步态识别,实际应用效果好.  相似文献   

17.
三维目标识别和模型语义分割在自动驾驶、机器人导航、3D打印和智能交通等领域均有着广泛应用。针对PointNet++未能结合三维模型的上下文几何结构信息的问题,提出一种采用深度级联卷积神经网络的三维点云识别与分割方法。首先,通过构建深度动态图卷积神经网络捕捉点云的深层语义几何特征;其次,通过将深度动态图卷积神经网络作为深度级联卷积神经网络的子网络递归地应用于输入点集的嵌套分区,以充分挖掘三维模型的深层细粒度几何特征;最后,针对点集特征学习中的点云采样不均匀问题,构建一种密度自适应层,利用循环神经网络编码每个采样点的多尺度邻域特征以捕捉上下文细粒度几何特征。实验结果表明,本算法在三维目标识别数据集ModelNet40和MoelNet10上的识别准确率分别为91.9%和94.3%,在语义分割数据集ShapeNet Part,S3DIS和vKITTI上的平均交并比分别为85.6%,58.3%和38.6%。该算法能够提高三维点云目标识别和模型语义分割的准确率,且具有较高的鲁棒性。  相似文献   

18.
随着人们对于公共安全的要求越来越重视,视频监控设备的安装已经变得非常普遍,行人再识别作为针对监控视频中行人进行分析的技术也受到更多人的关注。基于现有的深度学习网络提出了一种以最小化三元组损失为训练目标的非监督行人再识别算法。该设计主要通过预训练模型对数据进行特征提取,然后通过k-means聚类,最后对聚类后的数据进行三元组配对进行网络训练优化。通过在相关数据集上的测试结果可以看出,该设计在处理非标签数据行人再识别方面具有一定的有效性。  相似文献   

19.
一种抗遮挡的运动目标跟踪算法   总被引:16,自引:4,他引:12  
提出了一种基于彩色特征的抗遮挡目标跟踪算法。利用mean shift递推寻找当前帧目标的位置,并通过Kalman滤波估计目标状态。选用对目标部分遮挡具有鲁棒性的加权量化彩色直方图作为目标特征的概率分布,用Bhattacharyya系数作为特征相似性度量。提出一种目标遮挡因子,作为目标被遮挡程度的判断根据。当目标严重遮挡后,观测位置不再满足Kalman滤波的条件,采用目标状态量外推取代Kalman状态更新来预测目标当前的位置。实验结果表明,此方法对于部分遮挡以及全遮挡有较好的鲁棒性。  相似文献   

20.
针对颜色图像受光照及背景影响较大而较难识别目标的问题,利用深度图像作为目标载体,设计并实现了一种简单的目标识别方法。该方法主要包括深度图像的轮廓提取算法和基于轮廓特征识别两部分。先根据提取的轮廓计算矩信息得到图像质心坐标,再根据相机投影公式获得目标质心的真实相机坐标;提取轮廓的矩形描述子,组合轮廓不变矩特征和轮廓形态学特征成为目标的联合特征向量。针对不同的待识别目标,采集足够数量的训练样本,得到各目标的标准特征向量。最后实时提取场景目标的联合特征向量,计算场景目标特征向量与标准特征向量的最小欧式距离,进行识别判断。实验证明了该方法的快速、有效性。该方法应用在装载机械臂的室内移动机器人上,可实现目标定位、识别及抓取操作,具有一定的应用价值。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号