首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 171 毫秒
1.
特征点辅助的时空上下文目标跟踪与定位   总被引:1,自引:0,他引:1       下载免费PDF全文
翟敬梅  刘坤 《仪器仪表学报》2017,38(11):2839-2848
针对动态目标跟踪中快速运动和目标遮挡而跟踪失败问题,提出了一种特征点辅助的时空上下文跟踪算法。首先提取目标特征点,通过特征点匹配和光流跟踪方法进行目标追踪,获得目标预估位置;其次,建立特征点变化率和时空上下文模型更新率关系模型,实时调控更新率,防止引入错误信息;最后,在预估位置区域内,构建局部上下文外观模型,计算与时空上下文模型的相关性获取置信图,进一步精确定位目标。算法在一组测试视频集中进行验证,相比目前4种主流算法(平均跟踪成功率最高为60%,平均跟踪误差最小为26.14 pixel),本算法综合性能达到最优,平均跟踪成功率为90%,平均跟踪误差为7.47 pixel,平均跟踪速率25.31 f/s。在双目视觉移动机器人平台上对随机运动目标进行跟踪实验,在背景干扰、遮挡、目标旋转和快速运动等组合情况下,跟踪成功率97.4%,跟踪距离平均相对误差为4.05%。  相似文献   

2.
针对全卷积孪生神经网络SiamFC在目标快速运动、相似干扰较多等复杂场景下跟踪能力不足的问题,本文引入SINT作为再检测网络对SiamFC进行了改进。本文算法在跟踪响应图出现较多波峰时,启用精确度更高的再检测网络对波峰位置进行重新判定。同时,本文采用了生成式模型构建模板来适应目标的各种变化,以及高置信度的模型更新策略来防止每帧更新可能对模板带来的污染。在OTB2013上对算法性能进行了测试,并选取了9个主流的目标跟踪算法进行对比,本文算法的跟踪精确度达到了88.8%,排名第一,成功率达到了63.2%,排名第二,相比SiamFC有很大地提升。对不同视频序列的分析结果表明,本文算法在目标快速运动、严重遮挡、背景杂波、光照变化和长期跟踪等场景下具有较强的准确性和鲁棒性。  相似文献   

3.
应用Mean Shift和分块的抗遮挡跟踪   总被引:6,自引:0,他引:6  
针对传统Mean Shift跟踪算法在目标发生遮挡时容易跟偏甚至跟丢的缺陷,提出了一种新的抗遮挡跟踪算法。首先,对跟踪窗口内的目标进行分块;然后,对外围子块分别实施Mean Shift跟踪算法并检测遮挡的发生,当遮挡发生后即对所有子块实施Mean Shift跟踪算法;最后,引入一种子块置信度机制并仅用置信度最高的子块来确定目标的最终位置,从而在目标发生遮挡时能有效剔除被遮挡子块对目标定位的影响。对不同的视频序列测试的结果显示,本算法能对发生遮挡的目标进行准确跟踪。当遮挡目标尺寸为70pixel×100pixel时,平均处理时间为38.6ms/frame。结果表明,改进算法能够满足目标跟踪系统稳定性和实时性的要求。  相似文献   

4.
遮挡环境下采用在线Boosting的目标跟踪   总被引:6,自引:4,他引:2  
针对被跟踪目标在发生严重遮挡时采用基于自学习方法的在线Boosting算法易导致错误累积而产生“漂移”甚至目标丢失的问题,提出了一种基于子区域分类器的在线Boosting算法.首先,将特征池划分为多个子区域分类器对应的子区域特征池;然后,在跟踪过程中自适应地选取子区域分类器来组成强分类器以剔除被遮挡子区域对目标定位的影响;最后,采用对子区域特征池进行部分更新的方法有效解决了特征在线更新时的错误累积问题.对不同视频序列测试的结果表明,当目标大面积被遮挡时本算法能准确定位目标,目标大小为36 pixel×40 pixel时的处理帧率为15 frame/s.与传统在线Boosting算法相比,本算法对发生严重遮挡的目标仍能进行准确跟踪.  相似文献   

5.
由于视觉监控中运动目标跟踪的准确性易受遮挡、摄像机运动、目标外观变化等因素的影响,本文提出了一种结合分段复合权值与多策略的视觉跟踪算法。该算法首先利用目标、背景以及候选区域特征信息建立分段的复合权值得到目标的位置概率分布。然后结合空间一致性和滞后阈值分割目标位置概率图以进一步抑制噪声干扰,同时通过分析分段复合权值变化判断目标遮挡,调整目标跟踪候选范围,并结合目标历史尺度信息对当前目标尺度进行自适应调整。最后,对目标以及背景区域信息进行动态更新以适应目标外观与场景变化。与典型算法进行的对比实验结果表明:该算法能够有效地应对目标遮挡与摄像机运动等因素的影响,实验时对各组视频的平均处理时间约为10ms左右,适用于复杂场景条件下运动目标的实时跟踪。  相似文献   

6.
为改进在发生形变、尺度变化及相似目标等多种干扰因素时视频中运动目标的跟踪精度,提出了一种联合注意力的孪生网络模型。首先,采用一种轻量级网络MobileNetV3作为主干网络对目标进行特征提取;然后,为提高模型对于目标关键特征的关注度,提出了通道联合空间注意力与孪生网络结合的模型结构;最后,对基于注意力模块与非注意力模块的特征向量互相关结果进行加权融合获得响应图,并利用该响应图获得目标跟踪结果。实验结果表明,所提算法在OTB50与OTB100数据集上能够获得较好的跟踪效果,两个数据集平均精确率和成功率达到78.5%和58.3%。此外,当存在形变、尺度变化及相似目标等不合作因素时,所提算法仍能取得较好的跟踪效果,从而表明该算法具有良好的鲁棒性。  相似文献   

7.
为提高TLD算法在广泛场景下跟踪鲁棒性和实时性的问题,本文从跟踪模块和学习模块两个方面对TLD算法进行了改进,提出引入样本删除机制的TLD粒子群目标跟踪算法。首先,用基于颜色特征的粒子群目标跟踪算法替代TLD算法中原来的跟踪模块,增强TLD算法在应对目标出现非刚性形变、尺度变化、旋转、遮挡等情况下的跟踪鲁棒性。接着,针对TLD算法的学习模块引入样本删除机制,在跟踪过程中为样本库中正负样本数量分别设定一个阈值,当正负样本数都达到各自阈值时,便会启动样本删除机制。然后,对待分类进入样本库的图像块进行等级评价,删除对正负样本表征能力都较弱图像块。最后,将样本库中的正负样本与当前目标进行相似度匹配,删除对当前目标表征能力低的样本。通过对OTB2013和OTB2015数据集中相关视频序列的实验结果证明,本文算法的OPE精确度达到0.687,算法的OPE成功率为0.488,算法运算效率平均提高了25.71%。基本满足广泛场景下目标跟踪的鲁棒性,并显著了提高算法运算效率。  相似文献   

8.
采用单一特征描述目标和传统模型更新方法对目标进行跟踪难以适应目标的遮挡、形变以及复杂场景变化等问题。针对此问题,提出一种多特征融合和选择性更新模型的相关滤波器跟踪算法。分别利用方向梯度直方图和颜色特征训练滤波器模型,在检测阶段根据不同特征响应图的峰值旁瓣比和加权融合两种特征;根据每帧最终目标位置响应图的峰值旁瓣比,判断目标是否发生遮挡,发生遮挡时则不更新模型,下一帧中继续使用当前模型进行跟踪。选取公开测试视频集中12段视频序列与多个前沿运动目标跟踪算法进行对比实验,结果显示,相对于次优的基于颜色特征(color names,CN)的算法,平均中心位置误差减少了25.12像素,平均跟踪精度提高了29.31%。实验结果表明,在目标发生尺度变化、遮挡和光照变化等情况下,该算法可以稳定、准确跟踪运动目标。  相似文献   

9.
适于机载环境对地目标跟踪的粒子滤波设计   总被引:1,自引:0,他引:1  
宋策  张葆  尹传历 《光学精密工程》2014,22(4):1037-1047
为提高机载环境对地面强机动性目标跟踪的鲁棒性,本文以粒子滤波为跟踪框架,研究了它的动态模型与观测模型。针对机载环境的特点与跟踪目标的强机动性,提出了基于Kristan双步动态模型结构的加速度双步动态模型(TSA)。根据Yilmaz等人提出的非对称核函数思想,针对实际工程中目标变化特点与实时性要求,提出利用Snake算法提取目标轮廓,以轮廓信息构造非对称核函数的方法。最后,依据上述方法提出了TSA-AK粒子滤波跟踪算法。利用提出的算法对机载环境对地目标跟踪的视频进行了测试,结果表明,本文算法可实现对大幅度变速运动目标的稳定跟踪,正确跟踪率为98%;对大小为25 pixel×30 pixel的目标的处理帧率为26 frame/s。  相似文献   

10.
针对核相关滤波器在跟踪中因目标快速运动导致的目标易丢失和部分遮挡问题,本文在多特征尺度自适应核相关滤波器(Scale Adaptive with Multiple Features tracker,SAMF)基础上,提出一种融合自适应模板更新和预测目标位置重定位的核相关跟踪算法。采用联合目标移动速度和特征变化的模板更新机制增大对目标快速运动适应性,根据长时滤波器和短时滤波器协作跟踪提出目标位置修正和重定位模型提升跟踪器应对目标部分遮挡的能力。在OTB-2015视频序列集100组序列中与序列集提供的算法进行对比,本算法跟踪精度相比SAMF提升2%。在目标发生快速移动时本文算法具有更好的追踪目标能力,目标重定位也很好地解决了目标部分遮挡问题。  相似文献   

11.
基于压缩感知的多特征实时跟踪   总被引:3,自引:3,他引:3  
针对基于压缩感知的目标跟踪算法中存在的特征单一,在目标纹理变化、光照变化较大时跟踪不稳定、易丢失目标的问题,提出了多特征联合的实时跟踪算法。该算法以多个矩阵作为压缩感知中的投影矩阵,将压缩后的数据作为特征来提取出跟踪所需的多种特征。在更新过程中,针对不同特征在跟踪过程中的稳定性不同,采取不同速度的更新方法,使得在目标环境变化时跟踪的鲁棒性仍然很高。对不同视频的测试结果表明,提出的方法在目标运动、旋转、纹理变化和光照变化的情况下跟踪准确,在目标大小为70 pixel×100 pixel时平均帧速为23 frame/s,满足实时跟踪的要求。与单一特征的压缩感知算法相比,本算法在目标纹理和光照变化很大的情况下仍能完成稳定的实时跟踪。  相似文献   

12.
增量深度学习目标跟踪   总被引:3,自引:0,他引:3  
由于现有目标跟踪算法在复杂环境下易发生目标漂移甚至跟踪丢失,故本文提出了以双重采样粒子滤波为框架,基于增量深度学习的目标跟踪算法。该算法在粒子滤波中引入粒子集规模自适应调整的双重采样来解决粒子衰减及贫化问题,并利用无监督特征学习预训练深度去噪自编码器以克服跟踪中训练样本的不足。将深度去噪自编码器应用到在线跟踪中,使提取的特征集合能够有效表达粒子图像区域。在深度去噪自编码器中添加了增量特征学习方法,得到了更有效的特征集以适应跟踪过程中目标外观变化。该方法还用线性支持向量机对特征集合进行分类,提高对粒子集合的分类精度,以得到更精确的目标位置。在复杂环境下对不同图片序列进行的实验表明:该算法的跟踪综合评价指标为94%、重叠率为74%,平均帧率为13frame/s。与现有的跟踪算法相比,本算法有效地解决目标漂移甚至跟踪丢失问题,并且对遮挡、相似背景、光照变化、外观变化具有更好的鲁棒性及精确度。  相似文献   

13.
为了更好地对目标的尺度进行实时估计,避免多尺度测试及提高目标跟踪的速度和精度,提出了一种新的优化目标跟踪算法。通过将跟踪效果比较好的区域提案网络引入普通的孪生网络,并在算法中引进条形池化模块和高效通道注意力模块,应对物体的尺度差异和跟踪过程中较为剧烈的形变。提出的算法在OTB100数据集上取得了0.833的准确度和0....  相似文献   

14.
为解决传统监控设备视场小、非智能等缺陷,结合全景成像技术和计算机视觉技术,建立无人环境下外来入侵自动检测系统,从而实现了全景监控视场下运动目标快速准确的检测及跟踪。该技术关键在于如何在复杂的动态背景下有效地提取运动目标,为此提出一种基于动态特征块匹配的自适应背景更新算法。在采用帧间差分与背景差分融合算法检测到目标的基础上,利用目标的矩信息进行跟踪,避免了全景视觉下颜色及轮廓特征缺失的弊端。根据目标的轮廓及位置提取特征块,将视频序列的每一帧图像与初始背景图像进行特征块区域的局部匹配,首先通过分析特征块图像的颜色特征,构建基于区间统计的RGB颜色直方图,提取颜色特征序列。然后通过计算序列相关性来判断该区域是否需要背景更新,从而降低对单个像素更新的冗余计算。实验表明,该更新算法具有较强的鲁棒性和可行性,能够有效提高监控系统的稳定性。  相似文献   

15.
在线加权多示例学习实时目标跟踪   总被引:2,自引:0,他引:2  
由于原始多示例学习(MIL)跟踪的分类效果和实时性较差,提出了一种加权在线多示例学习跟踪算法。首先,根据所选定目标位置分别采集目标和背景样本集,通过对所采集样本集特征的在线学习生成弱分类器集;然后,用计算样本集对数似然函数的最大值的方法从弱分类器集中选择K个最优的弱分类器,给每个弱分类器赋不同的权值,生成一个强分类器;最后,在新的一帧中抽取目标和背景样本,用生成的强分类器对待分类的目标和背景进行分类;分类结果映射成概率值,概率最大样本的位置就是所要跟踪目标的位置。对不同视频序列的测试结果表明,该跟踪算法的跟踪正确率达93%,目标大小为43 pixel×36 pixel时处理帧率约为25 frame/s。与原始多示例学习跟踪算法相比,本算法的实时性提高了67%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号