首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 46 毫秒
1.
2.
随着无人机产业的发展,航拍影像数据急剧增多,航拍影像的智能化分析与处理已成为新的研究热点.目标跟踪作为其中的核心技术之一,可为后续影像内容解译及各种实际应用提供基础性的支撑.受到应用场景复杂、目标尺度复杂多变、姿态变化剧烈、相似目标干扰等各种复杂因素的影响,无人机影像目标跟踪面临着诸多的技术挑战.因此,总结了近年来无人机影像单目标跟踪技术的研究进展,包括基于相关滤波的目标跟踪方法、基于深度学习的目标跟踪方法、基于相关滤波与深度学习结合的目标跟踪方法等,介绍了无人机影像公开数据集,以及跟踪性能的评价指标,并对典型的单目标跟踪方法进行了性能评测与分析.最后,对未来无人机影像目标跟踪技术的发展态势进行了总结与展望.  相似文献   

3.
红外视频与普通彩色视频相比易受周围环境的影响,在红外行人跟踪中行人目标外观轮廓和灰度分布常有较大幅度变化,导致跟踪困难.为解决此问题,本文提出了一种VPSiamRPN(Video Prediction with Siamese Region Proposal Network)红外行人目标跟踪系统.在SiamRPN(Siamese Region Proposal Network)网络的基础上,针对目标形变、目标遮挡和背景杂波等严重影响红外跟踪效果的因素进行研究,设计将PredNet (Deep Predictive Coding Networks for Video Prediction and Unsupervised )网络的图像预测功能结合应用到SiamRPN网络上,以提高跟踪模板与被检测目标的相似度,增强目标跟踪中的模型匹配能力,从而提高对红外行人目标的跟踪能力.通过改变网络层数、预测所用的目标图像及图像帧数、网络的跟踪策略,对网络进行优化,设计了9组对比试验,在PTB-TIR数据集上,与SiamRPN网络客观定量对比,通过跟踪的成功率和重叠率在10种属性上对网络进行评估.实验结果表明:本文网络对红外目标的识别在热交叉、强度变化、遮挡和尺寸变化等多种属性上的跟踪成功率和重叠率均较SiamRPN网络有较大提高,显示出对红外行人跟踪的良好性能,在这一领域将有广阔的应用前景.  相似文献   

4.
BP神经网络对目标跟踪时,由于其学习效率低及易于陷入局部极小的缺陷影响了跟踪算法的准确性。为提高BP神经网络跟踪模型的准确性,将Adaboost算法和BP神经网络相结合,提出了一种BP_Adaboost神经网络跟踪模型。通过Adaboost算法得到多个BP神经网络弱分类器组成的强分类器跟踪模型,将该模型应用于视频运动目标跟踪进行有效性验证。实验结果分析表明.该方法对运动目标能够准确地进行跟踪.大大提高跟踪算法的兽椿性.  相似文献   

5.
Cam Shift算法具有复杂度低,实时性和鲁棒性好等优点,被广泛地应用于目标跟踪领域。但是Cam Shift算法在运动目标接近与其颜色相近的固定遮挡物时,跟踪会出现明显的偏移。针对这一问题,提出了一种解决与运动目标颜色相近的固定遮挡物对目标跟踪的干扰的方法。首先,运用单高斯背景模型对运动目标进行背景建模;其次,通过背景模型与当前帧的运算,确定与运动目标颜色相近的固定遮挡物所在的位置;最后,利用H分量灰度图计算运动目标所在位置。实验结果显示,该方法在运动目标接近相似颜色固定遮挡物时,能很好地跟踪运动目标。  相似文献   

6.
针对全卷积孪生神经网络(fully-convolutional Siamese network, SiamFC)在目标发生明显外观变化、目标快速运动等复杂场景下跟踪精确度不足,以及在跟踪目标丢失后由于采用局部搜索策略导致无法重新捕获追踪目标的问题,引入YOLO(you only look once)v3作为再检测网络对SiamFC进行改进。改进算法在SiamFC的跟踪点漂移后会启用目标检测网络进行全局搜索,同时在SiamFC跟踪响应图的峰值小于某一确定阈值时启用目标检测网络对跟踪目标位置进行重新检测与判定,从而可以重捕并更精确地判定复杂环境下的运动目标。在公共数据集OTB2013、OTB2015和UAV20L上进行了实验,实验结果表明,与SiamFC相比,改进算法在OTB2015数据集上的精确度提升了2.9%、成功率提升了1.7%,在UAV20L数据集上的精确度提升了1%、成功率提升了2.6%。此外,通过与目前主流的跟踪算法进行比较得出,改进算法达到了领先的性能。对数据集中不同属性的视频序列进行分析,实验表明改进算法在目标形变、尺度变化、严重遮挡、目标离开视野以及背景混淆5种干扰属性上...  相似文献   

7.
针对红外单目标跟踪问题,提出一种多特征的相关滤波目标跟踪算法。该算法融合了图像的卷积特征和差分特征,使用卷积特征和差分特征分别训练相关滤波模型。在跟踪阶段,对两种特征的相关滤波模型得到的响应图动态融合,利用动态融合的响应图来确定目标的最终位置,使用得到的目标位置分别更新相关滤波模型。在林雪平热红外数据集上进行了实验验证,与一些经典的跟踪算法进行了对比,表明该算法拥有更高的跟踪准确率。  相似文献   

8.
9.
现有的基于接收信号强度(RSS)的人员目标无源室内定位算法在定位环境变动的情况下难以兼顾人工工作量、时间消耗和定位准确率。针对这个问题,本文提出了基于迁移聚类和坐标融合的变分自编码器(FusVAE)的室内环境变动下人员目标无源定位算法。在环境变动后,采集少量无标签RSS样本,然后使用本文提出的基于度量学习的半监督模糊C均值聚类(SFCMML)对其进行精确聚类和标签标注,对原有的定位模型进行重训练,只需很小的人工和时间代价就可以使原定位模型在新环境下也具有较高的定位准确率。同时,针对变动后环境下采集RSS样本较少的问题,本文提出了基于坐标融合的变分自编码器(FusVAE),对新环境下的RSS样本进行数据增强,丰富了RSS样本的数量和质量,提高了定位模型的泛化能力。实验结果表明,在环境变动的情况下,本文提出的算法的平均定位准确率可达88.6%,和同领域同类型算法相比,具有较高的定位精度和较好的环境变动适应性,更适用于变动环境下的人员目标无源室内定位问题。  相似文献   

10.
针对复杂背景下的运动目标跟踪问题,提出了一种基于多特征自适应融合的运动目标跟踪算法。通过构建目标与背景的图像特征分布方差的比值函数来衡量目标与背景间的区分度,采用各特征的区分度对特征集进行线性加权自适应表示运动目标并集成在基于核的跟踪方法中。为了克服模板更新过程中的漂移,通过计算前后相邻两帧间目标模型的相似度函数,对跟踪模板进行自适应更新。基于生物视觉认知理论,目标的颜色、边缘特征以及纹理特征被用来实现基于多特征自适应融合的运动目标跟踪算法。仿真实验表明:采用本文算法能有效地对复杂背景下的运动目标进行跟踪。  相似文献   

11.
由于各种因素的干扰,在现实复杂的情况下目标跟踪过程中可能出现模型漂移和跟踪失败等问题,针对目标跟踪的鲁棒性和准确性提出一种联合检测的自适应融合目标跟踪算法。根据深层和浅层卷积特征具有的不同优点,使它们单独作用于相关滤波器得到其各自的响应分数,通过最小化损失使不同卷积特征的响应分数自适应融合。结合本研究的位置检测方法判断预测位置的有效性和真实性,得到最优的目标跟踪结果。在OTB-2015和VOT-2017两个数据库中进行大量测试,试验结果表明,本研究所提方法与LSART算法相比鲁棒性提高了10%,准确性提高了3.9%,并且对目标遮挡和尺度变化具有出色的性能表现。  相似文献   

12.
基于目标颜色特征,将遗传算法和粒子滤波器相结合进行非刚性目标的实时跟 踪:一般情况下,采用遗传算法跟踪目标,以最优个体作为目标状态;当发生较严重遮挡时,最优个体不一定是目标的真实状态,利用粒子滤波器的思想,以各个体的加权平均作为跟踪结果来克服遮挡影响.实验结果表明该混合算法具有较强的鲁棒性,能有效实现复杂场景下的目标跟踪.  相似文献   

13.
基于目标颜色特征,将遗传算法和粒子滤波器相结合进行非刚性目标的实时跟踪:一般情况下,采用遗传算法跟踪目标,以最优个体作为目标状态;当发生较严重遮挡时,最优个体不一定是目标的真实状态,利用粒子滤波器的思想,以各个体的加权平均作为跟踪结果来克服遮挡影响。实验结果表明该混合算法具有较强的鲁棒性,能有效实现复杂场景下的目标跟踪。  相似文献   

14.
介绍了机动多目标跟踪的基本原理、算法;将模糊系统中的模糊原则与神经网络相融合,提出了一种新的方法来提高系统的学习能力、表达能力以及机动多目标的状态的估计精度。仿真实验的结果证明了该方法的有效性。  相似文献   

15.
跨摄像头下的目标跟踪极富挑战性,其原因是由于不同摄像头所涵盖区域存在差异性以及运动目标行为轨迹具有随机性,从而导致干扰误差的积累,影响匹配准确度,致使跟踪失败.针对此问题,提出一种结合稀疏表示理论的跟踪模型.该模型首先通过不同摄像头间的背景亮度值,对待测目标进行光照补偿处理,以获取稳定的模板矩阵.在模型求解阶段,针对传...  相似文献   

16.
基于神经动力学的目标跟踪算法   总被引:1,自引:1,他引:0  
通过对神经网络模型的研究,将神经动力学的Shunting模型应用到目标跟踪系统中.该算法具有模型简单、参数不敏感、网络运算不易饱和、算法速度快,且不需要预设工作环境等优点,适用于未知动态环境下的优化目标跟踪.Matlab仿真试验表明,该算法可解决动态环境下的目标跟踪.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号