共查询到17条相似文献,搜索用时 171 毫秒
1.
2.
针对采用单一颜色特征对目标进行跟踪鲁棒性不高的问题,采用了颜色特征和纹理特征两种特征相结合来描述目标的方法,进而把融合后的特征应用到均值偏移跟踪框架中,有效的避免了单一颜色特征在光照变化和背景相似情况下的不稳定问题。实验结果表明该算法提取的目标特征具有较强的鲁棒性,能实现复杂场景下的目标跟踪。 相似文献
3.
4.
5.
6.
7.
8.
针对运动目标进行跟踪,常采用粒子滤波跟踪算法。为了减少相似背景像素点及光照变化对机动目标跟踪的干扰,采用了基于目标纹理特征和颜色特征融合的自适应粒子滤波算法,通过采用了不同的状态转移模型和观测模型,根据不同的跟踪环境进行自适应选择,并给出了相应的实验结果。实验结果表明,该算法在跟踪的性能和鲁棒性方面有所改进。 相似文献
9.
基于自适应多特征融合的均值迁移红外目标跟踪 总被引:3,自引:0,他引:3
针对采用单一特征跟踪鲁棒性不高的问题,该文提出一种自适应多特征融合均值迁移红外目标跟踪算法。为了增强对目标的表征能力,对局部均值对比度算法进行改进,利用局部均值对比度和灰度特征表征目标。在特征融合中引入特征不确定度量方法,自适应调整不同特征对跟踪结果的贡献,有效地提高均值迁移算法的鲁棒性。为了进一步提高对尺度变化目标的跟踪性能,采取尺度算子更新跟踪窗的大小。实验结果表明,该算法提取的目标特征具有较强的鲁棒性,能实现复杂场景下的目标跟踪。 相似文献
10.
为了解决常见视频跟踪方法在复杂场景中难以有效跟踪运动物体的难题,研究了在粒子滤波框架下基于多特征融合的判别式视频跟踪算法.首先分析了特征提取和跟踪算法的鲁棒性和准确性的关系,指出融合多种特征能有效地提升算法在复杂场景中的跟踪效果,然后选择提取HSV颜色特征和HOG特征描述目标表观,并在线训练逻辑斯特回归分类器构造判别式目标表观模型.在公开的复杂场景视频进行测试,比较了使用单一特征和多种特征的实验效果,并且将所提算法和经典跟踪算法进行了比较,实验结果表明融合多种特征的视频跟踪更具鲁棒性和准确性. 相似文献
11.
基于特征融合的粒子滤波目标跟踪新方法 总被引:9,自引:9,他引:0
针对传统粒子滤波(PF)算法采用单一颜色特征建模 跟踪目标性能差的缺陷,提出一种颜色特征与纹理特 征相融合的PF目标跟踪新算法。首先,采用一种具有抗噪声和保护纹理边缘的全局中值二值 模式 (GMBP)纹理算子,对模板图像进行局部差绝对值处理,得到幅 值序列模板,将幅值序列模板内的中值作为模板的阈值,与模板邻域比较获得新的纹理图像 ;然后,与 具有光照不变特性的局部二值模式(LBP)纹理算子结合,形成一种(GMLBP)新的纹理描述算子 。最后,分别计算GMLBP纹理特征粒子权值和HSV颜色特征粒子权 值,并依据权值大小确定融合系数,对纹理特征粒子权值和颜色特征粒子权值进行线 性融合,再对融合后粒子权值进行归一化处理,从而得到目标位置状态的最终估计值。对比 实验结果表明, 相对于单一颜色特征的目标跟踪算法,所提算法捕捉目标位置准确且具有更低的平均跟踪误 差,其平均误差降低了近2倍。 相似文献
12.
Visual-based target tracking is easily influenced by multiple factors, such as background clutter, targets’ fast-moving, illumination variation, object shape change, occlusion, etc. These factors influence the tracking accuracy of a target tracking task. To address this issue, an efficient real-time target tracking method based on a low-dimension adaptive feature fusion is proposed to allow us the simultaneous implementation of the high-accuracy and real-time target tracking. First, the adaptive fusion of a histogram of oriented gradient (HOG) feature and color feature is utilized to improve the tracking accuracy. Second, a convolution dimension reduction method applies to the fusion between the HOG feature and color feature to reduce the over-fitting caused by their high-dimension fusions. Third, an average correlation energy estimation method is used to extract the relative confidence adaptive coefficients to ensure tracking accuracy. We experimentally confirm the proposed method on an OTB100 data set. Compared with nine popular target tracking algorithms, the proposed algorithm gains the highest tracking accuracy and success tracking rate. Compared with the traditional Sum of Template and Pixel-wise LEarners (STAPLE) algorithm, the proposed algorithm can obtain a higher success rate and accuracy, improving by 2.3% and 1.9%, respectively. The experimental results also demonstrate that the proposed algorithm can reach the real-time target tracking with 50+fps. The proposed method paves a more promising way for real-time target tracking tasks under a complex environment, such as appearance deformation, illumination change, motion blur, background, similarity, scale change, and occlusion. 相似文献
13.
Real-time speaker tracking using particle filter sensor fusion 总被引:1,自引:0,他引:1
Yunqiang Chen Yong Rui 《Proceedings of the IEEE. Institute of Electrical and Electronics Engineers》2004,92(3):485-494
Sensor fusion for object tracking has become an active research direction during the past few years. But how to do it in a robust and principled way is still an open problem. In this paper, we propose a new fusion framework that combines both the bottom-up and top-down approaches to probabilistically fuse multiple sensing modalities. At the lower level, individual vision and audio trackers are designed to generate effective proposals for the fuser. At the higher level, the fuser performs reliable tracking by verifying hypotheses over multiple likelihood models from multiple cues. Unlike traditional fusion algorithms, the proposed framework is a closed-loop system where the fuser and trackers coordinate their tracking information. Furthermore, to handle nonstationary situations, the proposed framework evaluates the performance of the individual trackers and dynamically updates their object states. We present a real-time speaker tracking system based on the proposed framework by fusing object contour, color and sound source location. We report robust tracking results. 相似文献
14.
为了在复杂背景、部分遮挡和光照变化等因素干扰的情况下鲁棒地跟踪视频序列中感兴趣的运动目标,提出了一种改进的粒子滤波跟踪算法。该算法针对颜色信息在目标表述中存在的不足,首先对观测模型进行改进,提出了一种基于ICA特征分布的目标模型,将基于核函数的目标特征描述转换到ICA特征空间,由于光照变化引起灰度变化经ICA后仍是同一分量,因此能有效的适应光照变化,不仅考虑并充分利用了空间信息。有效的解决了光照变化及背景颜色相近造成的目标丢失现象,提高了目标跟踪算法的鲁棒性。同时,考虑到粒子的退化现象,将均值平移算法嵌入到粒子滤波的跟踪框架中,待各粒子经过系统传播后,利用均值平移算法使粒子向其领域局部极大值处移动,使得粒子集中在测量模型的局部区域内,只需少量的粒子就覆盖了尽可能的目标分布,很好地克服了粒子滤波器的退化现象并有效缩短了计算时间,提高了目标跟踪算法的准确性和系统的实时性。实验表明,该算法不仅能在复杂背景下准确的跟踪目标,而且在光线变化和部分遮挡情况下也能保证不丢失目标。 相似文献
15.
针对Staple算法中梯度直方图(HOG)特征和颜色直方图特征的融合无法自适应达到最优化的问题,本文提出了一种颜色自适应的核相关滤波目标跟踪改进算法,即Stronger-Staple算法(简称STR-Staple)。首先,本文用目标似然函数分别求出目标和背景所占比例的颜色直方图,并用巴氏系数实时测量目标与背景的颜色直方图的相似度,实现每一帧图像的跟踪监测;其次,提出一种自适应的融合系数,将相似度与融合系数相关联,对每一帧的特征匹配相应的权重,实现算法的最优融合。最后,本文算法在OTB-13和OTB-15两个数据集上与当前比较流行的5种跟踪算法进行比较。实验结果表明,该算法在光照变化、尺度变化、遮挡、变形、背景杂波等情况下均有较高的鲁棒性,且其跟踪精度、成功率在OTB-13数据集中分别为0.889、0.880。在OTB-15数据集中分别为0.741、0.644。均优于其它几种算法。 相似文献
16.
针对核相关滤波器跟踪算法(Kernel Correlation Filter,KCF)在特征提取单一以及尺度估计不足而导致跟踪效果不佳的问题,本文提出了一种多特征融合的尺度自适应核相关滤波目标跟踪算法。首先,使用帧差法将相邻帧图像对应像素值相减得到差分图像;其次,对差分图像提取方向直方图特征,再与目标的均一局部二值纹理特征和颜色特征进行线性加权融合;最后,引入一种尺度估计策略,将尺度滤波器的估计值与分块算法的估计值融合计算得出目标的尺度和位置。实验数据表明,本方法能有效的改善核相关滤波器的跟踪性能,且与其他主流算法相比,在尺度变换下也有较好的跟踪效果。 相似文献
17.
在基于信息融合的视频多目标跟踪过程中,特征融合算子的选择是关键.传统的基于特征融合的视频目标跟踪是将两个或两个以上特征作为测量特征通过某一融合机制进行融合权重.在一个高度非线性和难以建立模型的情形下,多目标之间的遮挡现象影响视频特性测量.为了解决该问题,提出了一种动态的选择融合算子的方法,以得到最好的跟踪性能.实验结果表明,动态地选择融合操作,可以提高互相遮挡的多目标跟踪性能. 相似文献