共查询到20条相似文献,搜索用时 88 毫秒
1.
由于视频信息的局限性,在遮挡情况下的目标跟踪依然是一个很难解决的问题.针对目标跟踪过程中的遮挡问题,提出将图像深度引入单目标跟踪算法.首先应用单目图像深度估计算法对图像进行深度估计,获取图像的深度信息;其次,将基于孪生区域推荐网络的目标跟踪算法与图像深度相结合,构建遮挡判别模块,利用目标深度信息的变化判断遮挡情况;最后... 相似文献
2.
基于多线索融合的抗遮挡目标跟踪算法 总被引:2,自引:0,他引:2
根据多线索融合的思想,提出了一种鲁棒的抗遮挡目标跟踪算法.采用基于核密度椭圆的二值形状模板和颜色直方图模板作为跟踪线索,引入目标可视度来评价目标遮挡时颜色线索和形状线索的可信度,自适应地融合两者的信息得到最终观测模型,在粒子滤波器的框架下对目标进行跟踪.实验结果表明,在遮挡情况下,本文算法比传统的基于单一线索的算法有更好的鲁棒性. 相似文献
3.
全卷积孪生网络通过相似性学习解决目标跟踪问题,其算法受到了越来越多的关注.为了提取更有判别力的目标特征,提升跟踪的精确度和鲁棒性,提出了一种结合注意力机制与特征融合的目标跟踪模型.首先,将第一帧和当前帧的前一帧结合作为目标模板,利用共享的特征提取网络提取目标模板和当前帧的多个卷积层的特征;然后,对于目标模板的多层卷积特征,结合通道注意力机制处理,提升模板特征的判别力;最后,目标模板的特征与当前帧的特征进行互相关计算,得到响应图,从而获取预测目标在当前帧中的位置和尺度.最终实验结果表明,与几个先进的跟踪模型相比,提出的目标跟踪模型获得了比较有竞争力的性能. 相似文献
4.
基于孪生网络视觉跟踪的进化和深层网络目标跟踪算法在目标被遮挡和外观形变时的跟踪成功率不高,鲁棒性不强,对此,提出了一种结合双注意力与特征融合的孪生网络目标跟踪算法。首先,采用通道和空间注意力模块增强目标信息,抑制图像中的干扰信息,提高模型的准确度;然后,对注意力层输出的浅层和深层特征信息进行多层特征融合,得到表现力更好的目标特征,提高跟踪成功率;最后,引入在线模板更新机制,减少了跟踪漂移,提高了跟踪鲁棒性。使用OTB100测试集进行实验,实验结果表明,改进后算法的跟踪成功率比改进前算法的跟踪成功率提高了1.3%;在具有遮挡和形变属性的4个测试序列下,改进后算法的平均重叠率提高了3%,中心位置的平均误差降低了0.37个像素点,针对遮挡和外观形变时的鲁棒性更好。 相似文献
5.
《西安邮电学院学报》2016,(6):44-50
给出一种基于多特征融合的核相关滤波器变尺度估计方法,以求解决视觉跟踪目标尺度变化问题。先提取目标所在区域的方向梯度直方图、颜色名和均匀局部二值模式,将此三种特征进行融合,构造训练样本,对目标外观建模;再求解线性岭回归函数,获得位置和尺度核相关滤波模板,对待检测帧的候选区域进行相似性度量,确定跟踪目标位置及尺度;实时更新位置模型和尺度模型的学习因子。实验结果表明,所给方法在不同挑战因素下,满足精确跟踪的要求,且在目标尺度变化、遮挡等复杂场景下,有较强鲁棒性。 相似文献
6.
为了提高孪生网络目标跟踪算法在实际复杂环境中的跟踪精度与准确性,提出一种基于孪生网络特征融合与自适应加权的目标跟踪算法MFAW-SiamRPN。该算法在孪生区域建议网络目标跟踪算法的基础上,引入多层特征融合模块,并在主干网络末端嵌入自适应加权网络,提高跟踪算法的适应性和判别力,从而能够通过区域建议网络更准确的获取目标的位置和形状。实验测试表明:相比孪生区域建议网络目标跟踪算法,MFAW-SiamRPN算法在OTB2015数据集上的跟踪精度和成功率分别提升了2.5%、2.8%,在VOT2018数据集上的期望平均重叠率提高了2.3%,跟踪性能较好,在处理复杂场景时有更好的鲁棒性。 相似文献
7.
为了解决SiamRPN++单目标跟踪算法在目标被短时遮挡及外观剧烈变化时定位不准确的问题,提出基于双注意力机制的多分支孪生网络目标跟踪算法.采用具有轻量化主干网络的SiamRPN++为基础算法,结合轻量化的通道和空间注意力机制,提升跟踪过程中应对遮挡挑战时的抗干扰能力.新增上一帧模板分支,动态更新目标外观变化,利用三元组损失增强跟踪过程中前景与背景的判别能力.根据目标的移动速度进行局部扩大搜索,使目标被短时遮挡后仍可以及时、准确地跟踪到目标.实验结果表明,改进后的算法在OTB100数据集的成功率和精确度较原算法分别提高了2.4%和1.6%,平均中心位置误差降低了28.97个像素,平均重叠率提高了14.5%. 相似文献
8.
目标遮挡是多扩展目标跟踪中的常见问题,当目标之间的距离较近或传感器的扫描范围内存在未知障碍物时,就会出现目标被部分或全部遮挡的现象,从而导致对目标的漏估。针对现有的泊松多伯努利混合滤波算法在遮挡场景下不能稳定跟踪的问题,提出了融入模糊推理的高斯过程-泊松多伯努利混合滤波算法。首先,在随机集目标跟踪框架下根据不同的遮挡场景给出了对应的扩展目标遮挡模型;在此基础上对高斯过程-泊松多伯努利混合滤波器的状态空间进行扩维,通过加入可变检测概率的方式将遮挡对目标状态的影响考虑到算法滤波步骤中;最后构建了可以估计目标遮挡概率的模糊推理系统,并将其与高斯过程-泊松多伯努利混合滤波算法结合,借助模糊系统的描述能力和泊松多伯努利混合滤波器良好的跟踪性能,实现遮挡场景下对目标的准确估计。仿真实验结果表明,所提算法在目标遮挡场景下的跟踪性能优于现有的泊松多伯努利混合滤波算法。 相似文献
9.
摘要:目标遮挡在图像跟踪中是一个不可避免的问题,粒子滤波器能够实现杂背景下的目标跟踪,但在目标被长时间被全部遮挡再重新出现时难以恢复有效跟踪。本文基于粒子滤波器提出了一种利用分块匹配结果进行遮挡判别和目标全遮挡出现时进行全局搜索的方法,实验证明该方法有效解决了长时间被全遮挡的目标的跟踪问题。 相似文献
10.
为了解决SiamFC在目标快速移动、背景与前景相似、光照强烈等复杂场景下鲁棒性低的问题,提出了一种新的基于语义和外观双分支孪生网络的跟踪方法SA-Siam++,包括通过沙漏-通道注意力机制提取语义信息的语义分支和通过SiamFC提取外观信息的外观分支.此外,将AlexNet网络更换为经过改进的VGG-16网络能显著增加特征提取能力.在OTB-2013、OTB-2015、UAV123和VOT2018等目标跟踪标准数据集上进行了实验.实验结果表明,所提算法获得的测试结果相比现有主流算法有较大提高,平均帧率为49帧/s,满足实时性要求. 相似文献
11.
本文研究了目标的多特征融合跟踪问题.提出了衡量各特征质量的标量方法,利用粒子权值平方和来表示各特征信息的粒子退化程度,并以此值作为各特征信息质量状况的衡量.该方法能根据跟踪的实际情况判定各分信息粒子质量,并在此基础上提出了多模式融合策略,该策略能依据各分信息的质量变换各融合模式达到跟踪过程中各模式的最优组合.实验结果表明:在对复杂背景视频目标的跟踪中,该算法具有强的鲁棒性,较高的识别精度. 相似文献
12.
为提高高分辨率遥感图像目标检测效果,本文将多特征融合方法和孪生注意力网络相结合,提出一种新的目标检测方法。构建遥感图像目标检测的整体框架,基于锚框模型对遥感图像目标进行多层特征的提取及融合;运用孪生注意力网络对遥感图像目标实时视觉跟踪检测,引入通道和空间的双重自注意力机制,提高目标图像的特征表达能力,由此得到更加精准的检测结果。实验分析结果表明,本文方法的平均总体精度为93.8,F1指数平均值为0.88,Kappa系数平均值为0.93,均明显高于对比方法,说明本文方法具有较好的检测效果。 相似文献
13.
针对现有基于孪生网络的视频目标跟踪(video object tracking, VOT)方法存在的特征提取能力不足以及对外观变化过大或平面外旋转等目标跟踪效果不佳的问题, 提出一种基于残差密集孪生网络的VOT方法. 首先, 使用嵌入卷积注意力的残差密集网络对模板帧图像和检测帧图像分别提取不同层次的特征; 然后, 将不同层次的特征通过相互独立的区域候选网络进行互相关操作; 最后, 将多个区域候选网络的输出自适应加权求和, 得到最终的跟踪结果. 实验结果表明, 该方法在应对目标表观变化过大、平面外旋转等挑战时, 能够获得较好的跟踪效果.
相似文献14.
基于目标颜色特征,将遗传算法和粒子滤波器相结合进行非刚性目标的实时跟踪:一般情况下,采用遗传算法跟踪目标,以最优个体作为目标状态;当发生较严重遮挡时,最优个体不一定是目标的真实状态,利用粒子滤波器的思想,以各个体的加权平均作为跟踪结果来克服遮挡影响。实验结果表明该混合算法具有较强的鲁棒性,能有效实现复杂场景下的目标跟踪。 相似文献
15.
尹宏鹏 《上海电力学院学报》2010,(6)
针对复杂背景下的运动目标跟踪问题,提出了一种基于多特征自适应融合的运动目标跟踪算法。通过构建目标与背景的图像特征分布方差的比值函数来衡量目标与背景间的区分度,采用各特征的区分度对特征集进行线性加权自适应表示运动目标并集成在基于核的跟踪方法中。为了克服模板更新过程中的漂移,通过计算前后相邻两帧间目标模型的相似度函数,对跟踪模板进行自适应更新。基于生物视觉认知理论,目标的颜色、边缘特征以及纹理特征被用来实现基于多特征自适应融合的运动目标跟踪算法。仿真实验表明:采用本文算法能有效地对复杂背景下的运动目标进行跟踪。 相似文献
16.
针对红外单目标跟踪问题,提出一种多特征的相关滤波目标跟踪算法。该算法融合了图像的卷积特征和差分特征,使用卷积特征和差分特征分别训练相关滤波模型。在跟踪阶段,对两种特征的相关滤波模型得到的响应图动态融合,利用动态融合的响应图来确定目标的最终位置,使用得到的目标位置分别更新相关滤波模型。在林雪平热红外数据集上进行了实验验证,与一些经典的跟踪算法进行了对比,表明该算法拥有更高的跟踪准确率。 相似文献
17.
针对全卷积孪生神经网络(fully-convolutional Siamese network, SiamFC)在目标发生明显外观变化、目标快速运动等复杂场景下跟踪精确度不足,以及在跟踪目标丢失后由于采用局部搜索策略导致无法重新捕获追踪目标的问题,引入YOLO(you only look once)v3作为再检测网络对SiamFC进行改进。改进算法在SiamFC的跟踪点漂移后会启用目标检测网络进行全局搜索,同时在SiamFC跟踪响应图的峰值小于某一确定阈值时启用目标检测网络对跟踪目标位置进行重新检测与判定,从而可以重捕并更精确地判定复杂环境下的运动目标。在公共数据集OTB2013、OTB2015和UAV20L上进行了实验,实验结果表明,与SiamFC相比,改进算法在OTB2015数据集上的精确度提升了2.9%、成功率提升了1.7%,在UAV20L数据集上的精确度提升了1%、成功率提升了2.6%。此外,通过与目前主流的跟踪算法进行比较得出,改进算法达到了领先的性能。对数据集中不同属性的视频序列进行分析,实验表明改进算法在目标形变、尺度变化、严重遮挡、目标离开视野以及背景混淆5种干扰属性上... 相似文献
18.
异步多传感器目标跟踪融合 总被引:1,自引:0,他引:1
传感器信息融合一直以来被认为是改进目标跟踪的一种有效手段.一般的做法是假设所有传感器是同步的.但是这样的假设在实际系统中常常难以做到.在考虑多传感器目标跟踪时,不依赖于同步假设,即允许各传感器使用不同的采样频率.允许传感器平台与处理中心存在交流延迟等,提出了一种新的基于一级融合跟踪和二级融合跟踪的处理方案.该方案是在分布式融合的基础上,融合处理可以发生在融合区间内的任意时刻. 相似文献
19.
针对复杂场景下多特征跟踪算法适应性不强的问题,提出一种多特征有效融合和更新的目标跟踪方法.该方法首先在粒子滤波框架下采用加权融合的方式对目标进行多特征观测和相似性度量,通过分析粒子的空间集中度和权值分布建立一种有效的融合系数计算方法,使融合结果更加准确可靠.然后选取可信度高的特征检测遮挡,并动态调整目标模型的更新速度,以降低算法受目标变化和部分遮挡的影响.实验证明该方法对复杂的跟踪场景具有更强的鲁棒性,并适用于目标被遮挡时的跟踪. 相似文献
20.
在采用CamShift算法进行移动目标跟踪时,如果目标快速移动或者有遮挡物干扰时,仅利用移动的颜色信息对进行跟踪时容易导致跟踪失败。为了解决该问题,提出了移动目标运动估计和CamShift算法相结合的目标跟踪算法。通过结合削弱背景中含有的目标颜色直方图信息和进行移动目标的运动估计,从而在存在干扰目标或目标部分被遮挡的情况下,仍能实现有效跟踪。最后通过实验验证该算法的有效性。 相似文献