首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 468 毫秒
1.
为处理复杂应用场景下核相关滤波器跟踪效果不理想的问题,提出了一种结合帧差法的尺度自适应核相关滤波跟踪算法。在训练得到相关滤波器后,借助帧差法来处理下一帧图像,获得目标的预测位置,扩充算法的检测区域;然后通过尺度池构建多尺度待检测图像块集,通过相关滤波器来求得最大响应,估计出目标的最佳位置和最佳尺度;最后利用平均峰值相关能量(average peak-to correlation energy,APCE)作为跟踪置信度指标,引入高置信度更新机制,在目标被遮挡时,停止更新模型,防止误差被积累,提高正确率。在OTB100数据集上与若干视觉跟踪算法进行了对比实验,改进算法的成功率和距离精度均表现最优,比KCF算法高出21.7个百分点和12.0个百分点。该算法在目标快速运动、尺度变化、遮挡等复杂场景下,均具有较强的精确性和鲁棒性。  相似文献   

2.
针对相关滤波跟踪中目标在剧烈形变时会发生滤波模板漂移,以及在复杂场景中目标跟踪鲁棒性较差的问题,提出一种融合稀疏重构图像显著性的相关滤波跟踪算法。在跟踪过程中,通过超像素分割提取背景模板来稀疏重构目标颜色相关,构建目标颜色模型得到跟踪检测分数,将该检测分数与相关滤波检测分数进行融合,根据融合响应,利用峰值旁瓣比调整模板更新速度来解决遮挡下的更新策略问题,同时利用中心先验图对存在误差的稀疏重构图进行修正,使得该目标跟踪框架能适应形变、光照等复杂变化。实验表明,该算法在准确性和鲁棒性方面要优于其他算法。  相似文献   

3.
为了解决复杂背景及大视野场景下跟踪机动目标易丢失和跟踪精度低的难题,提出了一种复杂背景下的快速机动目标检测与跟踪算法.利用帧间差分算法提取图像中的机动目标,在初始帧建立机动目标的颜色直方图模型,将后续输入图像的像素值转化为直方图分布下的概率值;根据与目标模型的相似度,将每个候选区域的像素值作为密度;利用自适应均值漂移算法寻找机动目标的真实位置;利用卡尔曼滤波预测目标位置.实验结果表明:算法能够准确地在复杂背景和大视野场景下快速检测并跟踪机动目标.  相似文献   

4.
在红外图像跟踪过程中,由于种种原因红外序列图像中的感兴趣目标往往存在不规则运动,很难用某种模型来描述目标的运动状态变迁.本文提出一种基于层次匹配和背景补偿的方法来对此类红外目标进行精确跟踪.背景补偿算法去除前后帧图像由于数据采集工具的不规则抖动而造成的图像差异,在背景补偿算法的基础上运用层次匹配策略大大提高跟踪精度.实验结果表明,此算法可以实现复杂场景下的红外目标的高精度稳定跟踪.  相似文献   

5.
为解决复杂场景下,基于整体表观模型的目标跟踪算法容易丢失目标的问题,提出一种多模型协作的分块目标跟踪算法.融合基于局部敏感直方图的产生式模型和基于超像素分割的判别式模型构建目标表观模型,提取局部敏感直方图的亮度不变特征来抵制光照变化的影响;引入目标模型的自适应分块划分策略以解决局部敏感直方图算法缺少有效遮挡处理机制的问题,提高目标的抗遮挡性;通过相对熵和均值聚类度量子块的局部差异置信度和目标背景置信度,建立双权值约束机制和子块异步更新策略,在粒子滤波框架下,选择置信度高的子块定位目标.实验结果表明,本文方法在复杂场景下具有良好的跟踪精度和稳定性.  相似文献   

6.
针对复杂场景下拍摄到的服装图像的分割问题,提出一种基于先验知识的融合颜色和纹理特征的无监督分割算法。首先利用块截断编码思想将传统的三维颜色空间截断成为六维空间,得到更为精细的颜色特征,并结合改进的局部二值模式纹理特征实现对图像的特征描述;然后根据目标区域和背景区域在图像中出现的统计规律,提出了一种基于先验知识的两分法来对图像进行分割。由于对图像做了分块处理,因此在子图像块的基础上进行的图像分割将更加高效。实验表明,设计的算法能快速有效地将目标区域从各类不同的复杂场景中分割出来,且整个过程无须人工设定任何参数,对后续的图像理解和图像检索具有重要意义。  相似文献   

7.
针对目标在运动过程中存在遮挡、光照变化、背景因素等复杂情况下的跟踪问题,提出了一种多特征融合的跟踪算法;利用背景加权后的联合直方图来描述目标的灰度和纹理特征信息,提出一种多帧加权组合的模板更新策略,对模板特征分布进行自适应更新,基于当前粒子特征信息可信度加权设计了一种自适应特征融合观测模型,并结合到粒子滤波算法中,从而提高了跟踪算法的场景适应能力;实验结果表明;与基于单一特征的算法相比,该算法的适应性更强,能有效跟踪复杂场景下的运动目标.  相似文献   

8.
动态场景图像序列中运动目标检测新方法   总被引:1,自引:0,他引:1       下载免费PDF全文
在动态场景图像序列中检测运动目标时,如何消除因摄影机运动带来的图像帧间全局运动的影响,以便分割图像中的静止背景和运动物体,是一个必须解决的难题。针对复杂背景下动态场景图像序列的特性,给出了一种新的基于场景图像参考点3D位置恢复的图像背景判别方法和运动目标检测方法。首先,介绍了图像序列的层次化运动模型以及基于它的运动分割方法;然后,利用估计出的投影矩阵计算序列图像中各运动层的参考点3D位置,根据同一景物在不同帧中参考点3D位置恢复值的变化特性,来判别静止背景对应的运动层和运动目标对应的运动层,从而分割出图像中的静止背景和运动目标;最后,给出了动态场景图像序列中运动目标检测的详细算法。实验结果表明,新算法较好地解决了在具有多组帧间全局运动参数的动态场景序列图像中检测运动目标的问题,较大地提高了运动目标跟踪算法的有效性和鲁棒性。  相似文献   

9.
目的 在复杂背景下,传统模型匹配的跟踪方法只考虑了目标自身特征,没有充分考虑与其所处图像的关系,尤其是目标发生遮挡时,易发生跟踪漂移,甚至丢失目标。针对上述问题,提出一种前景判别的局部模型匹配(FDLM)跟踪算法。方法 首先选取图像帧序列前m帧进行跟踪训练,将每帧图像分割成若干超像素块。然后,将所有的超像素块组建向量簇,利用判别外观模型建立包含超像素块的目标模型。最后,将建立的目标模型作为匹配模板,采用期望最大化(EM)估计图像的前景信息,通过前景判别进行局部模型匹配,确定跟踪目标。结果 本文算法在前景判别和模型匹配等方面能准确有效地适应视频场景中目标状态的复杂变化,较好地解决各种不确定因素干扰下的跟踪漂移问题,和一些优秀的跟踪算法相比,可以达到相同甚至更高的跟踪精度,在Girl、Lemming、Liquor、Shop、Woman、Bolt、CarDark、David以及Basketball视频序列下的平均中心误差分别为9.76、28.65、19.41、5.22、8.26、7.69、8.13、11.36、7.66,跟踪重叠率分别为0.69、0.61、0.77、0.74、0.80、0.79、0.79、0.75、0.69。结论 实验结果表明,本文算法能够自适应地实时更新噪声模型参数并较准确估计图像的前景信息,排除背景信息干扰,在部分遮挡、目标形变、光照变化、复杂背景等条件下具有跟踪准确、适应性强的特点。  相似文献   

10.
针对复杂背景下的运动目标跟踪特征选择问题,提出了一种基于粒子群优化的目标跟踪特征选择算法。假设具有目标与背景间最好可分离性的特征为最好的跟踪特征。通过构建目标与背景的图像特征分布方差的比值函数作为衡量目标与背景间的可分离性判据。使用粒子群优化算法优化不同的特征组合实时获取最优的目标跟踪特征。为验证该算法的有效性,将选择的最优特征与一种基于核的跟踪算法相结合进行跟踪实验。实验结果表明,算法能有效提高传统基于核的跟踪算法对于复杂场景下的运动目标跟踪的鲁棒性与准确性。  相似文献   

11.
针对采用相关滤波的判别式目标跟踪遇到的瓶颈问题:由于目标快速移动引起边界效应,使得相关滤波器在学习与更新过程中可能会引入错误,最终错误的累积将导致跟踪失败。在采集深度学习特征与样本相似性度量的基础上,提出一种引入交替方向乘子方法的改进相关滤波目标跟踪算法,选择DCNN深度特征有效地表征待跟踪目标的初始状态,通过在线分类过程中样本相似性比对与半监督学习,辅助解决相关滤波器在学习过程中存在的自学习问题。所提目标跟踪算法特别适合训练样本为持续获得的、同时存储空间较小的机器学习过程,提高目标在快速运动与部分遮挡等复杂情况下的跟踪成功率,针对VOT2016标准测试视频的实验表明:当目标面临快速运动时,对比CN、SAMF、STC算法,所提DA-CFT跟踪算法将跟踪成功率分别由60.4%~73.4%、67.2%~82.9%、80.9%~88.1%提升至85.6%~91.0%。  相似文献   

12.
Yuan  Di  Lu  Xiaohuan  Li  Donghao  Liang  Yingyi  Zhang  Xinming 《Multimedia Tools and Applications》2019,78(11):14277-14301

Most of the correlation filter based tracking algorithms can achieve good performance and maintain fast computational speed. However, in some complicated tracking scenes, there is a fatal defect that causes the object to be located inaccurately, which is the trackers excessively dependent on the maximum response value to determine the object location. In order to address this problem, we propose a particle filter redetection based tracking approach for accurate object localization. During the tracking process, the kernelized correlation filter (KCF) based tracker can locate the object by relying on the maximum response value of the response map; when the response map becomes ambiguous, the tracking result becomes unreliable correspondingly. Our redetection model can provide abundant object candidates by particle resampling strategy to detect the object accordingly. Additionally, for the target scale variation problem, we give a new object scale evaluation mechanism, which merely considers the differences between the maximum response values in consecutive frames to determine the scale change of the object target. Extensive experiments on OTB2013 and OTB2015 datasets demonstrate that the proposed tracker performs favorably in relation to the state-of-the-art methods.

  相似文献   

13.
目的 传统的L1稀疏表示目标跟踪,是将所有候选目标表示为字典模板的线性组合,只考虑了字典模板的整体信息,没有分析目标的局部结构。针对该方法在背景杂乱时容易出现跟踪漂移的问题,提出一种基于正例投票的目标跟踪算法。方法 本文将目标表示成图像块粒子的组合,考虑目标的局部结构。在粒子滤波框架内,构建图像块粒子置信函数和相似性函数,提取正例图像块。最终通过正例权重投票估计跟踪目标的最佳位置。结果 在14组公测视频序列上进行跟踪实验,与多种优秀的目标跟踪算法相比,本文跟踪算法在目标受到背景杂乱、遮挡、光照变化等复杂环境干扰下最为稳定,重叠率达到了0.7,且取得了最低的平均跟踪误差5.90,反映了本文算法的可靠性和有效性。结论 本文正例投票下的L1目标跟踪算法,与经典方法相比,能够解决遮挡、光照变化和快速运动等问题的同时,稳定可靠地实现背景杂乱序列的鲁棒跟踪。  相似文献   

14.
基于数据关联矩阵的多目标跟踪算法   总被引:4,自引:0,他引:4       下载免费PDF全文
汤义  刘伟铭  柏柯嘉 《计算机工程》2010,36(23):158-161
针对视频中的多目标跟踪问题,提出一种改进的基于数据关联矩阵的多目标跟踪算法,实现视频场景复杂环境下的多个目标跟踪。使用区间分布模型获取图像的背景和前景,对前景目标建立相应的运动模型。根据运动模型和Kalman滤波器的位置预测,建立相关的匹配代价函数、关联矩阵和匹配链表。实验结果表明,该算法对目标在场景中的频繁出现和消失、交叉运动和短暂遮挡等均有较好的处理效果。  相似文献   

15.
目的 针对现实场景中跟踪目标的快速运动、旋转、尺度变化、遮挡等问题,提出了基于卷积特征的核相关自适应目标跟踪的方法。方法 利用卷积神经网络提取高、低层卷积特征并结合本文提出的核相关滤波算法计算并获得高底两层卷积特征响应图。采用Coarse-to-Fine方法对目标位置进行估计,在学习得到1维尺度核相关滤波器估计尺度的基础上实时更新高低两层核相关滤波器参数,以实现自适应的目标跟踪。结果 实验选取公开数据集中的典型视频序列进行跟踪,测试了算法在目标尺度发生变化、遮挡、旋转等复杂场景下的跟踪性能并与多种优秀的跟踪算法在平均中心误差、平均重叠率等指标上进行了定量比较,在Singer1、Car4、Jogging、Girl、Football以及MotorRolling视频图像序列上的中心误差分别为8.71、6.83、3.96、3.91、4.83、9.23,跟踪重叠率分别为0.969、1.00、0.967、0.994、0.967、0.512。实验结果表明,本文算法与原始核相关滤波算法相比,平均中心位置误差降低20%,平均重叠率提高12%。结论 采用卷积神经网络提取高低两层卷积特征,高层卷积特征用于判别目标和背景,低层卷积特征用于预测目标位置并通过Coarse-to-Fine方法对目标位置进行精确的定位,较好地解决了由于目标的旋转和尺度变化带来的跟踪误差大的问题,提高了跟踪性能并能够实时更新学习。在目标尺度发生变化、遮挡、光照条件改变、目标快速运动等复杂场景下仍表现出较强的鲁棒性和适应性。  相似文献   

16.
Appearance modeling is very important for background modeling and object tracking. Subspace learning-based algorithms have been used to model the appearances of objects or scenes. Current vector subspace-based algorithms cannot effectively represent spatial correlations between pixel values. Current tensor subspace-based algorithms construct an offline representation of image ensembles, and current online tensor subspace learning algorithms cannot be applied to background modeling and object tracking. In this paper, we propose an online tensor subspace learning algorithm which models appearance changes by incrementally learning a tensor subspace representation through adaptively updating the sample mean and an eigenbasis for each unfolding matrix of the tensor. The proposed incremental tensor subspace learning algorithm is applied to foreground segmentation and object tracking for grayscale and color image sequences. The new background models capture the intrinsic spatiotemporal characteristics of scenes. The new tracking algorithm captures the appearance characteristics of an object during tracking and uses a particle filter to estimate the optimal object state. Experimental evaluations against state-of-the-art algorithms demonstrate the promise and effectiveness of the proposed incremental tensor subspace learning algorithm, and its applications to foreground segmentation and object tracking.  相似文献   

17.
It is a critical step to choose visual features in object tracking. Most existing tracking approaches adopt handcrafted features, which greatly depend on people’s prior knowledge and easily become invalid in other conditions where the scene structures are different. On the contrary, we learn informative and discriminative features from image data of tracking scenes itself. Local receptive filters and weight sharing make the convolutional restricted Boltzmann machines (CRBM) suit for natural images. The CRBM is applied to model the distribution of image patches sampled from the first frame which shares same properties with other frames. Each hidden variable corresponding to one local filter can be viewed as a feature detector. Local connections to hidden variables and max-pooling strategy make the extracted features invariant to shifts and distortions. A simple naive Bayes classifier is used to separate object from background in feature space. We demonstrate the effectiveness and robustness of our tracking method in several challenging video sequences. Experimental results show that features automatically learned by CRBM are effective for object tracking.  相似文献   

18.
目的 传统的相关滤波跟踪算法采用对跟踪目标(唯一准确正样本)循环移位获取负样本,在整个学习过程中没有对真正的背景信息进行建模,因此当目标与背景信息极其相似时容易漂移。大多数跟踪算法为了提高跟踪性能,在时间序列上收集了大量的训练样本而导致计算复杂度的增加。采用模型在线更新策略,由于未考虑时间一致性,使得学习到的滤波器可能偏向背景而发生漂移。为了改善以上问题,本文在背景感知相关滤波(BACF)跟踪算法的基础上,加入时间感知,构建了一个带等式限制的相关滤波目标函数,称为背景与时间感知相关滤波(BTCF)视觉跟踪。该算法不但获取了真正的负样本作为训练集,而且仅用当前帧信息无需模型在线更新策略就能学习到具有较强判别力的相关滤波器。方法 首先将带等式限制的相关滤波目标函数转化为无约束的增广拉格朗日乘子公式,然后采用交替方向乘子方法(ADMM)转化为两个具有闭式解的子问题迭代求最优解。结果 采用OTB2015数据库中的OPE(one pass evaluation)评价准则,以成功率曲线图线下面积(AUC)和中心点位置误差为评判标准,在OTB2015公开数据库上与10个比较优秀的视觉跟踪算法进行对比实验。结果显示,100个视频序列和11个视频属性的成功率及对应的AUC和中心位置误差均明显优于其他基于相关滤波的视觉跟踪算法,说明本文算法具有良好的跟踪效果。本文的BTCF算法仅采用HOG纯手工特征,在OTB2015数据库上AUC较BACF算法提高了1.3%;由于颜色与边缘特征具有互补特性,本文融合CN(color names)特征后,在OTB2015数据库上,AUC较BACF算法提高了4.2%,采用纯手工特征跟踪性能AUC达到0.663,跟踪速度达到25.4帧/s。结论 本文的BTCF算法能够适用于光照变化、目标旋转、遮挡等复杂情况下的视觉跟踪,具有良好的鲁棒性和一定的实时性。  相似文献   

19.
针对目标跟踪中因背景混叠和遮挡等因素导致的目标丢失问题,提出了一种基于背景约束与卷积特征的目标跟踪方法(TBCCF)。对输入图像进行多特征融合并降维,增强目标特征判别性能的同时降低特征计算的复杂度;在滤波器训练过程中引入背景约束,使得滤波器更专注于目标响应,以提升抗干扰能力;通过设置记忆滤波器与峰值旁瓣比检测,判断目标是否丢失。若丢失,引入卷积特征滤波器进行重检测,实现目标的重捕获。在Visual Tracking Benchmark数据集50个复杂场景视频序列上的实验结果表明,所提算法总体精度和总体成功率优于现有的多数跟踪算法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号