首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
结合目标预测位置的压缩跟踪   总被引:1,自引:0,他引:1       下载免费PDF全文
目的:提出结合目标预测位置的压缩跟踪算法用于提高目标跟踪的准确度。方法:选择随机间距稀疏Toeplitz矩阵作为投影矩阵,对原始多尺度Haar-like特征进行压缩;然后,将样本与Mean Shift算法框架下的预测位置的距离权重输入Bayes分类器,形成分类背景与目标的判别函数;最后对参数的更新方式进行优化,提出了参数自适应的学习模式。结果:与目前较流行的6种目标跟踪算法在20个具有挑战性的序列中进行比较,实验结果表明本文提出的算法平均跟踪成功率比压缩跟踪算法将近高27%,平均运行时间为0.15秒/帧。结论:本文采用了结合预测位置的压缩跟踪算法,在参数更新阶段采用了非线性参数学习模式,实验表明结合目标预测位置的跟踪算法比一般的跟踪算法更具有鲁棒性,更能适应遮挡等情况,跟踪的效果也更加平滑。  相似文献   

2.
目的 针对水下人造目标的位姿参数估计问题,提出一种基于图像线特征与点云面特征的目标定位算法。方法 基于对人造物体成像后的边缘特征及其本身曲面特征的认知,将目标描述成为一种线特征与面特征的组合。首先依据指定线型对目标图像边缘进行线特征检测,初步定位目标在图像中的位置;然后采用RANSAC(random sample consensus)算法对投影到目标区域内的点云进行曲面特征检测,得到目标参数的近似值并从视场点云中提取目标点云;最后以超二次曲面作为目标的部件化模型,以检测到的目标参数为初值,建立3维目标尺寸和位姿估计的非线性目标函数,将该目标函数的优化结果作为3维目标的定位结果。结果 通过水下实验对算法的有效性进行验证,定位后的目标旋转轴角度偏差不超过2°,相对位置偏差不超过1%,单目标定位耗时不超过5 s。结论 实验结果表明,该算法的定位精度和耗时均能满足应用需要,可有效定位未知尺寸的人造目标,且对水下复杂环境有较强的适应性。  相似文献   

3.
目的 在视觉跟踪领域中,特征的高效表达是鲁棒跟踪的关键,观察到在相关滤波跟踪中,不同卷积层表达了目标的不同方面特征,提出了一种结合连续卷积算子的自适应加权目标跟踪算法。方法 针对目标定位不准确的问题,提出连续卷积算子方法,将离散的位置估计转换成连续位置估计,使得位置定位更加准确;利用不同卷积层的特征表达,提高跟踪效果。首先利用深度卷积网络结构提取多层卷积特征,通过计算相关卷积响应大小,决定在下一帧特征融合时各层特征所占的权重,凸显优势特征,然后使用从不同层训练得到的相关滤波器与提取得到的特征进行相关运算,得到最终的响应图,响应图中最大值所在的位置便是目标所在的位置和尺度。结果 与目前较流行的3种目标跟踪算法在目标跟踪基准数据库(OTB-2013)中的50组视频序列进行测试,本文算法平均跟踪成功率达到85.4%。结论 本文算法在光照变化、尺度变化、背景杂波、目标旋转、遮挡和复杂环境下的跟踪具有较高的鲁棒性。  相似文献   

4.
目的 虽然基于稀疏表示的目标跟踪方法表现出了良好的跟踪效果,但仍然无法彻底解决噪声、旋转、遮挡、运动模糊、光照和姿态变化等复杂背景下的目标跟踪问题。针对遮挡、旋转、姿态变化和运动模糊问题,提出一种在粒子滤波框架内,基于稀疏表示和先验概率相结合的目标跟踪方法。方法 通过先验概率衡量目标模板的重要性,并将其引入到正则化模型中,作为模板更新的主要依据,从而获得一种新的候选目标稀疏表示模型。结果 在多个测试视频序列上,与多种流行算法相比,该算法可以达到更好的跟踪性能。在5个经典测试视频下的平均中心误差为6.77像素,平均跟踪成功率为97%,均优于其他算法。结论 实验结果表明,在各种含有遮挡、旋转、姿态变化和运动模糊的视频中,该算法可以稳定可靠地跟踪目标,适用于视频监控复杂场景下的目标跟踪。  相似文献   

5.
目的 针对现实场景中跟踪目标的快速运动、旋转、尺度变化、遮挡等问题,提出了基于卷积特征的核相关自适应目标跟踪的方法。方法 利用卷积神经网络提取高、低层卷积特征并结合本文提出的核相关滤波算法计算并获得高底两层卷积特征响应图。采用Coarse-to-Fine方法对目标位置进行估计,在学习得到1维尺度核相关滤波器估计尺度的基础上实时更新高低两层核相关滤波器参数,以实现自适应的目标跟踪。结果 实验选取公开数据集中的典型视频序列进行跟踪,测试了算法在目标尺度发生变化、遮挡、旋转等复杂场景下的跟踪性能并与多种优秀的跟踪算法在平均中心误差、平均重叠率等指标上进行了定量比较,在Singer1、Car4、Jogging、Girl、Football以及MotorRolling视频图像序列上的中心误差分别为8.71、6.83、3.96、3.91、4.83、9.23,跟踪重叠率分别为0.969、1.00、0.967、0.994、0.967、0.512。实验结果表明,本文算法与原始核相关滤波算法相比,平均中心位置误差降低20%,平均重叠率提高12%。结论 采用卷积神经网络提取高低两层卷积特征,高层卷积特征用于判别目标和背景,低层卷积特征用于预测目标位置并通过Coarse-to-Fine方法对目标位置进行精确的定位,较好地解决了由于目标的旋转和尺度变化带来的跟踪误差大的问题,提高了跟踪性能并能够实时更新学习。在目标尺度发生变化、遮挡、光照条件改变、目标快速运动等复杂场景下仍表现出较强的鲁棒性和适应性。  相似文献   

6.
目的 在复杂背景下,传统模型匹配的跟踪方法只考虑了目标自身特征,没有充分考虑与其所处图像的关系,尤其是目标发生遮挡时,易发生跟踪漂移,甚至丢失目标。针对上述问题,提出一种前景判别的局部模型匹配(FDLM)跟踪算法。方法 首先选取图像帧序列前m帧进行跟踪训练,将每帧图像分割成若干超像素块。然后,将所有的超像素块组建向量簇,利用判别外观模型建立包含超像素块的目标模型。最后,将建立的目标模型作为匹配模板,采用期望最大化(EM)估计图像的前景信息,通过前景判别进行局部模型匹配,确定跟踪目标。结果 本文算法在前景判别和模型匹配等方面能准确有效地适应视频场景中目标状态的复杂变化,较好地解决各种不确定因素干扰下的跟踪漂移问题,和一些优秀的跟踪算法相比,可以达到相同甚至更高的跟踪精度,在Girl、Lemming、Liquor、Shop、Woman、Bolt、CarDark、David以及Basketball视频序列下的平均中心误差分别为9.76、28.65、19.41、5.22、8.26、7.69、8.13、11.36、7.66,跟踪重叠率分别为0.69、0.61、0.77、0.74、0.80、0.79、0.79、0.75、0.69。结论 实验结果表明,本文算法能够自适应地实时更新噪声模型参数并较准确估计图像的前景信息,排除背景信息干扰,在部分遮挡、目标形变、光照变化、复杂背景等条件下具有跟踪准确、适应性强的特点。  相似文献   

7.
目的 传统跟踪算法在复杂环境下容易发生漂移(drift)现象,通过改进TLD(tracking learning detection)跟踪技术算法,提出了基于Sliding-window的局部搜索和全局搜索策略、积分直方图过滤器和随机Haar-like块特征过滤器。方法 首先,采用积分直方图过滤器可以有效地过滤大量非目标子窗口块,从而减少后续过滤器特征匹配数;其次,利用随机Haar-like块特征过滤器能够解决跟踪算法在复杂环境(多物体、部分或较大区域遮挡、快速运动等)跟踪过程易发生漂移而导致跟踪精度的不足。结果 结合TLD原始过滤器与新提出的两个过滤器组合而成的级联分类器,通过与主流的跟踪算法实验进行对比表明,级联分类器在稳定的背景或复杂环境的跟踪鲁棒性强、跟踪精度高,并且采用了局部和全局搜索策略提高了计算速度。结论 提出的方法在诸多背景环境变化,跟踪物体形变等情况下,能够精确地多尺度跟踪待测目标;结合全局和局部搜索跟踪策略能够有效地克服级联分类器所带来的时间复杂度过高的问题,从而实现实时目标跟踪。  相似文献   

8.
目的 由于目标在复杂场景中可能会发生姿态变化、物体遮挡、背景干扰等情况,目标跟踪仍然是一个具有挑战性的课题。目前判别性相关滤波方法在目标跟踪问题上获得了成功而又广泛的应用。标准的相关滤波方法基于循环偏移得到大量训练样本,并利用快速傅里叶变换加速求解滤波器,使其具有很好的实时性和鲁棒性,但边界偏移带来的消极的训练样本降低了跟踪效果。空间正则化的相关滤波跟踪方法引入空间权重函数,增强目标区域的滤波器作用,在增大了目标搜索区域的同时,也增加了计算时间,而且对于目标形变不规则,背景相似的情景也会增强背景滤波器,从而导致跟踪失败。为此,基于以上问题,提出一种自适应融合多种相关滤波器的方法。方法 利用交替方向乘子法将无约束的相关滤波问题转化为有约束问题的两个子问题,在子问题中分别采用不同的相关滤波方法进行求解。首先用标准的相关滤波方法进行目标粗定位,进而用空间正则化的相关滤波跟踪方法进行再定位,实现了目标位置和滤波模板的微调,提高了跟踪效果。结果 本文算法和目前主流的一些跟踪方法在OTB-2015数据集中100个视频上,以中心坐标误差和目标框的重叠率为评判标准进行了对比实验,本文算法能较好地处理多尺度变化、姿态变化、背景干扰等问题,在CarScale、Freeman4、Girl等视频上都表现出了最好的跟踪结果;本文算法在100个视频上的平均中心坐标误差为28.55像素,平均目标框重叠率为61%,和使用人工特征的方法相比,均高于其他算法,与使用深度特征的相关滤波方法相比,平均中心坐标误差高了6像素,但平均目标框的重叠率高了4%。结论 大量的实验结果表明,在目标发生姿态变化、尺度变化等外观变化时,本文算法均具有较好的准确性和鲁棒性。  相似文献   

9.
目的 在目标跟踪中,基本粒子滤波算法和传统模型更新策略在遮挡、光照变化以及自身旋转等情况下通常存在鲁棒性较差的问题。为解决该问题,提出一种基于选择性模型不定时更新的粒子滤波视觉跟踪算法。方法 本文算法在粒子滤波框架下,定时检测目标变化,采用最速梯度下降法判断更新时机。仅当目标本身逐渐姿态改变而不受背景干扰时更新目标模型;在发生遮挡或光照改变较大时则不更新,保持当前模型继续跟踪。结果 通过对示例视频的计算机视觉跟踪,在跟踪目标中心位置误差、覆盖率、精度及成功率比较上,本文算法均能表现出较优的实验结果,这表明:本文算法能够对目标模型进行选择性更新,与对比算法比较,总体能够更加有效解决视频中遮挡、光照变化以及自身旋转等情况下的鲁棒跟踪问题。结论 由于本文算法未考虑尺度,在尺度不变的多种复杂变化条件下,本文算法均具有较好的鲁棒性。  相似文献   

10.
目的 为解决运动目标跟踪时因遮挡、尺度变换等产生的目标丢失以及传统匹配跟踪算法计算复杂度高等问题,提出一种融合图像感知哈希技术的运动目标跟踪算法.方法 本文算法利用感知哈希技术提取目标摘要进行模板图像识别匹配,采用匹配跟踪策略和搜索跟踪策略相配合来准确跟踪目标,并构建模板评价函数和模板更新准则实现目标模板的自适应更新,保证其在目标发生遮挡和尺度变换情况下的适应性.结果 该算法与基于NCC(normalized cross correlation)的模板匹配跟踪算法、Mean-shift跟踪算法以及压缩跟踪算法相比,在目标尺度变换和物体遮挡时,跟踪的连续性和稳定性更好,且具有较低的计算复杂度,能分别降低跟踪系统约6.2%、 6.3%、 9.3%的计算时间.结论 本文算法能有效实现视频场景中目标发生遮挡及尺度变换情况下的跟踪,跟踪的连续性和稳定性良好,且算法具有较低的计算复杂度,有利于实时性跟踪系统的构建.  相似文献   

11.
目的 近年来,目标跟踪领域取得了很大进步,但是由于尺度变化,运动,形状畸变或者遮挡等造成的外观变化,仍然是目标跟踪中的一大挑战,因而有效的图像表达方法是提高目标跟踪鲁棒性的一个关键因素。方法 从中层视觉角度出发,首先对训练图像进行超像素分割,将得到特征向量集以及对应的置信值作为输入值,通过特征回归的方法建立目标跟踪中的判别外观模型,将跟踪图像的特征向量输入该模型,得到候选区域的置信值,从而高效地分离前景和背景,确定目标区域。结果 在公开数据集上进行跟踪实验。本文算法能较好地处理目标尺度变化、姿态变化、光照变化、形状畸变、遮挡等外观变化;和主流跟踪算法进行对比,本文算法在跟踪误差方面表现出色,在carScale、subway、tiger1视频中能取得最好结果,平均误差为12像素,3像素和21像素;和同类型的方法相比,本文算法在算法效率上表现出色,所有视频的跟踪效率均高于同类型算法,在carScale视频中的效率,是同类算法效率的32倍。结论 实验结果表明,本文目标跟踪算法具有高效性和鲁棒性,适用于目标发生外观变化时的目标跟踪问题。目前跟踪中只用了单一特征,未来考虑融合多特征来提升算法鲁棒性和准确度。  相似文献   

12.
结合背景信息的自适应加权压缩跟踪算法   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 为了提高目标跟踪的准确度,提出结合背景信息的自适应加权压缩跟踪算法。方法 针对目标边缘背景信息的干扰问题,提出对目标框架分块提取特征,根据区域分配权值,弱化特征提取过程中背景信息的干扰;利用正负样本特征概率分布的Bhattacharyya距离,自适应地选取区分度较大的特征进行分类器训练,提高分类器的鲁棒性;针对目标遮挡导致分类器分类不准确问题,提出设置目标遮挡检测机制,结合目标和局部背景信息对目标实现遮挡环境下的跟踪。结果 与目前较流行的5种算法在6个具有挑战性的序列中进行比较,本文提出的算法平均跟踪率达到90%,平均每帧耗时0.088 6 s。结论 本文算法在背景干扰,光线变换,目标旋转、形变、遮挡和复杂背景环境下的跟踪具有较高鲁棒性。  相似文献   

13.
目的 当前大多数基于Mean-shift的跟踪算法都忽视了目标中密集的特征信息,本文有效利用密集特征信息,来提高跟踪的准确性.方法 在目标模型中,常存在一些颜色特征相对聚集,形成一定大小的特征密集区,这些区域的面积或大或小,对人眼视觉跟踪异常重要.这些区域形成的空间结构信息,可以被利用到目标跟踪.提出一种高效的目标模型,通过计算密集特征区域面积,以及密集区质心到目标中心的距离,构建加权系数,通过该系数,来增加目标中分布相对集中的特征的权值,同时削弱离散特征的权值.同时使用零阶矩和目标模型与候选模型之间的相似度系数,估算目标的面积;再使用预测目标面积补偿法,对目标中因使用背景加权法而权重被削弱的特征区域,进行面积补偿;最后使用估算的目标区域面积以及二阶中心距,估算目标尺度和方向的改变.在跟踪过程中,背景如发生较大变化,则对目标模型进行更新.结果 本文算法具有很好的尺度适应性,跟踪平均准确率在94.6%以上,得到较当前一些先进方法更好的准确度和效率.结论 提出的算法能增加目标模型中不同特征权值间的差异,使得构建的目标模型具有较强区分目标和背景的能力,提高了定位目标的准确性;面积补偿法解决了目标因特征权重被削弱,而导致估算的目标面积小于实际面积的问题.  相似文献   

14.
非凸加权核范数及其在运动目标检测中的应用   总被引:1,自引:1,他引:0       下载免费PDF全文
目的 近年来,低秩矩阵分解被越来越多的应用到运动目标检测中。但该类方法一般将矩阵秩函数松弛为矩阵核函数优化,导致背景恢复精度不高;并且没有考虑到前景目标的先验知识,即区域连续性。为此提出一种结合非凸加权核范数和前景目标区域连续性的目标检测算法。方法 本文提出的运动目标检测模型以鲁棒主成分分析(RPCA)作为基础,在该基础上采用矩阵非凸核范数取代传统的核范数逼近矩阵低秩约束,并结合了前景目标区域连续性的先验知识。该方法恢复出的低秩矩阵即为背景图像矩阵,而稀疏大噪声矩阵则是前景目标位置矩阵。结果 无论是在仿真数据集还是在真实数据集上,本文方法都能够取得比其他低秩类方法更好的效果。在不同数据集上,该方法相对于RPCA方法,前景目标检测性能提升25%左右,背景恢复误差降低0.5左右;而相对于DECOLOR方法,前景目标检测性能提升约2%左右,背景恢复误差降低0.2左右。结论 矩阵秩函数的非凸松弛能够比凸松弛更准确的表征出低秩特征,从而在运动目标检测应用中更准确的恢复出背景。前景目标的区域连续性先验知识能够有效地过滤掉非目标大噪声产生的影响,使得较运动目标检测的精度得到大幅提高。因此,本文方法在动态纹理背景、光照渐变等较复杂场景中均能够较精确地检测出运动目标区域。但由于区域连续性的要求,本文方法对于小区域多目标的检测效果不甚理想。  相似文献   

15.
《Advanced Robotics》2012,26(24):1264-1280
ABSTRACT

To collect a human-annotated dataset for training deep convolutional neural networks is a very time-consuming and laborious process. To reduce this burden, we previously proposed an automated annotation by placing one visual marker above the detection target object in the training phase. However, in this approach, occasionally the marker hides the object surface. To avoid this issue, we propose placing a pedestal with multiple markers at the bottom of the object. If we use multiple markers, the object can be annotated even when the object hides some of the markers. Besides that, the simple modification of placing the markers on the bottom allows the use of simple background masking to avoid the neural network learning the remaining markers in the training image as a feature of the object. Background masking can completely remove the markers during the training process. Experiments showed the proposed vision system using our automatic object annotation outperformed the vision system using manual annotation in terms of object detection, orientation estimation, and 2D position estimation while reducing the time required for dataset collection from 16.1 hours to 7.30 hours.  相似文献   

16.
目的 目标在跟踪过程中,各种因素的干扰使得跟踪结果存在不确定性。因此,将跟踪过程中所提取样本的可靠性融入跟踪模型中,有助于克服低可靠性样本对跟踪算法的影响。为此,基于最近的结构化支持向量机(SSVM)跟踪算法,提出一种包含样本置信度的加权间隔结构化支持向量机跟踪模型(WMSSVM),以增强SSVM跟踪算法性能。方法 首先,基于打分和位置重合率估计样本可靠性;其次,建立WMSSVM模型处理具有不同置信度的跟踪样本训练问题,并采用对偶坐标下降优化算法求解跟踪模型。结果 在包含100个视频的OTB100跟踪数据集上进行测试,提出的WMSSVM跟踪器与基准跟踪器Scale-DLSSVM相比,在精准度和成功率两个指标上分别提高了1%和2%。与最近的跟踪算法相比,提出的方法也表现出更好的性能。结论 本文首次将样本的可靠性融入结构化支持向量机跟踪模型,并提出一种基于加权间隔的结构化支持向量机跟踪模型及其优化求解方法,在包含100个视频序列的跟踪数据集上验证了提出方法的有效性,本文提出的算法能够适应复杂场景下的跟踪任务,并在背景混杂、目标形变、遮挡、运动模糊、目标出界、快速位移等类别的视频中表现出优异的性能。  相似文献   

17.
目的 似物性推荐为近年来提出的一种快速物体定位方法,而参数最小割模型作为似物性推荐的一种重要模型受到广泛关注。针对传统的参数最小割模型受颜色分布影响较大的问题,提出融合多个具有信息互补作用的外形先验予以改进。方法 首先构造了一种数据驱动的基于形状共享的外形先验,以发现具有相似外形的物体区域;其次,从格式塔完形心理学的角度入手,引出了一种测地星形凸面性的外形先验,约束外形的拓扑结构,生成外形不同的物体区域;最后,结合外形先验、颜色分布、边缘响应强度以及尺度线索,构建能量函数以表征新的模型,从而增强模型对复杂颜色分布的鲁棒性。结果 分别在Seg VOC12和BSDS300数据集中进行了外形先验有效性验证、复杂颜色分布下算法鲁棒性分析和前沿似物性推荐算法对比分析等实验,结果表明,本文采用融合互补性外形先验能提高候选区域定位精度,具有更好的颜色分布鲁棒性,当颜色简单性位于[0.7,,08]之间时,算法结合外形先验后平均最佳重叠率最高可达到9.8%的提升,且在与13种具有代表性的似物性推荐算法进行区域级物体定位能力对比实验中,本文算法在不同的重叠率阈值下均达到了相近的查全率。结论 本文算法具有更高的前景与背景的区分能力,能够适应各种复杂颜色分布,同时具有较好的物体定位能力。  相似文献   

18.
目的 视觉定位旨在利用易于获取的RGB图像对运动物体进行目标定位及姿态估计。室内场景中普遍存在的物体遮挡、弱纹理区域等干扰极易造成目标关键点的错误估计,严重影响了视觉定位的精度。针对这一问题,本文提出一种主被动融合的室内定位系统,结合固定视角和移动视角的方案优势,实现室内场景中运动目标的精准定位。方法 提出一种基于平面先验的物体位姿估计方法,在关键点检测的单目定位框架基础上,使用平面约束进行3自由度姿态优化,提升固定视角下室内平面中运动目标的定位稳定性。基于无损卡尔曼滤波算法设计了一套数据融合定位系统,将从固定视角得到的被动式定位结果与从移动视角得到的主动式定位结果进行融合,提升了运动目标的位姿估计结果的可靠性。结果 本文提出的主被动融合室内视觉定位系统在iGibson仿真数据集上的平均定位精度为2~3 cm,定位误差在10 cm内的准确率为99%;在真实场景中平均定位精度为3~4 cm,定位误差在10 cm内的准确率在90%以上,实现了cm级的定位精度。结论 提出的室内视觉定位系统融合了被动式和主动式定位方法的优势,能够以较低设备成本实现室内场景中高精度的目标定位结果,并在遮挡、目标...  相似文献   

19.
目的 视觉目标跟踪中,目标往往受到自身或场景中各种复杂干扰因素的影响,这对正确捕捉所感兴趣的目标信息带来极大的挑战。特别是,跟踪器所用的模板数据主要是在线学习获得,数据的可靠性直接影响到候选样本外观模型表示的精度。针对视觉目标跟踪中目标模板学习和候选样本外观模型表示等问题,采用一种较为有效的模板组织策略以及更为精确的模型表示技术,提出一种新颖的视觉目标跟踪算法。方法 跟踪框架中,将候选样本外观模型表示假设为由一组复合模板和最小重构误差组成的线性回归问题,首先利用经典的增量主成分分析法从在线高维数据中学习出一组低维子空间基向量(模板正样本),并根据前一时刻跟踪结果在线实时采样一些特殊的负样本加以扩充目标模板数据,再利用新组织的模板基向量和独立同分布的高斯—拉普拉斯混合噪声来线性拟合候选目标外观模型,最后估计出候选样本和真实目标之间的最大似然度,从而使跟踪器能够准确捕捉每一时刻的真实目标状态信息。结果 在一些公认测试视频序列上的实验结果表明,本文算法在目标模板学习和候选样本外观模型表示等方面比同类方法更能准确有效地反映出视频场景中目标状态的各种复杂变化,能够较好地解决各种不确定干扰因素下的模型退化和跟踪漂移问题,和一些优秀的同类算法相比,可以达到相同甚至更高的跟踪精度。结论 本文算法能够在线学习较为精准的目标模板并定期更新,使得跟踪器良好地适应内在或外在因素(姿态、光照、遮挡、尺度、背景扰乱及运动模糊等)所引起的视觉信息变化,始终保持其最佳的状态,使得候选样本外观模型的表示更加可靠准确,从而展现出更为鲁棒的性能。  相似文献   

20.
目的 目标的长距离跟踪一直是视频监控中最具挑战性的任务之一。现有的目标跟踪方法在存在遮挡、目标消失再出现等情况下往往会丢失目标,无法进行持续有效的跟踪。一方面目标消失后再次出现时,将其作为新的目标进行跟踪的做法显然不符合实际需求;另一方面,在跟踪过程中当相似的目标出现时,也很容易误导跟踪器把该相似对象当成跟踪目标,从而导致跟踪失败。为此,提出一种基于目标识别辅助的跟踪算法来解决这个问题。方法 将跟踪问题转化为寻找帧间检测到的目标之间对应关系问题,从而在目标消失再现后,采用深度学习网络实现有效的轨迹恢复,改善长距离跟踪效果,并在一定程度上避免相似目标的干扰。结果 通过在标准数据集上与同类算法进行对比实验,本文算法在目标受到遮挡、交叉运动、消失再现的情况下能够有效地恢复其跟踪轨迹,改善跟踪效果,从而可以对多个目标进行持续有效的跟踪。结论 本文创新性地提出了一种结合基于深度学习的目标识别辅助的跟踪算法,实验结果证明了该方法对遮挡重现后的目标能够有效的恢复跟踪轨迹,适用在监控视频中对多个目标进行持续跟踪。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号