首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 156 毫秒
1.
跨摄像机行人因光照、视角、姿态的差异,会使其外观变化显著,给行人再识别的研究带来严峻挑战。基于多特征融合和距离度量学习技术,提出辨识特征后融合的算法,并将其应用于行人再识别中。首先,对跨摄像机行人样本图像分别提取局部最大出现频次(LOMO)特征和基于显著颜色名称的颜色描述子(SCNCD)特征,表示跨摄像机行人的外观;然后,基于所提取的LOMO和SCNCD特征,分别去训练跨视图二次判别分析(XQDA)距离度量学习模型,分别获取跨摄像机每对行人每个特征优化的距离。最后,应用最小最大标准化距离融合的算法,获取跨摄像机行人最终的距离,用于跨摄像机行人的匹配。在具有挑战的VIPeR和PRID450S两个公开数据集上进行实验,实验结果表明所提出的行人再识别算法有效地提高了行人再识别的准确率。  相似文献   

2.
王程  刘元盛  刘圣杰 《计算机工程》2023,49(2):296-302+313
行人检测在无人驾驶环境感知领域具有重要应用。现有行人检测算法多数只关注普通大小的行人目标,忽略了小目标行人特征信息过少的问题,从而造成检测精度低、应用于嵌入式设备中实时性不高等情况。针对该问题,提出一种小目标行人检测算法YOLOv4-DBF。引用深度可分离卷积代替YOLOv4算法中的传统卷积,以降低模型的参数量和计算量,提升检测速度和算法实时性。在YOLOv4骨干网络中的特征融合部分引入scSE注意力模块,对输入行人特征图的重要通道和空间特征进行增强,促使网络学习更有意义的特征信息。对YOLOv4颈部中特征金字塔网络的特征融合部分进行改进,在增加少量计算量的情况下增强对图像中行人目标的多尺度特征学习,从而提高检测精度。在VOC07+12+COCO数据集上进行训练和验证,结果表明,相比原YOLOv4算法,YOLOv4-DBF算法的AP值提高4.16个百分点,速度提升27%,将该算法加速部署在无人车中的TX2设备上进行实时测试,其检测速度达到23FPS,能够有效提高小目标行人检测的精度及实时性。  相似文献   

3.
设计并实现了一种基于电子稳像处理的数字信号处理器(DSP)嵌入式平台的行人检测算法:采用平滑特征轨迹法对输入视频进行电子稳像处理;采用sobel边缘算子提取人体的头肩边缘图像,根据改进Hausdorff相似性度量原理,提出了基于改进Hausdorff距离头、肩边缘模板匹配的行人目标检测算法;通过卡尔曼滤波算法对行人目标进行实时跟踪.实际路口测试结果表明:在TMS320DM8168嵌入式平台上设计与实现的基于改进Hausdorff距离头肩边缘模板匹配的行人检测算法可以对行人实现实时检测和实时跟踪,结合电子稳像算法,可以达到95%的检测率、9帧/s的检测速度,而误检率为4%,能够满足实际使用需求.  相似文献   

4.
为解决LCT算法在目标形变与快速移动情况下跟踪效果差的问题,提出一种基于特征融合的跟踪算法。在梯度方向直方图特征相关滤波的基础上,提取目标与背景颜色直方图特征,得到颜色特征的目标预测位置。在此基础上,根据跟踪置信度确定特征融合权重,综合考虑梯度特征与颜色特征得到跟踪结果。实验结果证明,与LCT算法相比,该算法的距离精度和重叠精度分别提高了11.5%和21.2%,平均中心位置误差减少了15.3像素。  相似文献   

5.
为提高多目标视觉跟踪算法的实时性和稳定性,提出了分块多特征融合的目标跟踪算法.该算法融合底层颜色、纹理和边缘特征信息,以降低单一目标特征算法容易受复杂环境和目标形变的影响.建立分块目标多特征融合直方图模型,引入目标和背景区分度抑制背景分量,并且结合Kalman滤波器进行预测,在发生遮挡时根据置信度最大子块位置获取遮挡目标位置,实现目标稳定可靠的跟踪.实验结果表明:该算法对每帧图像的平均处理时间为36.2 ms,达到实时性的目的,且算法鲁棒性较强.  相似文献   

6.
Mean Shift行人跟踪采用颜色特征直方图作为跟踪特征,存在易受背景颜色干扰等问题。基于此,在传统的Mean Shift行人跟踪算法中引入粒计算的思想,提出粒化的Mean Shift行人跟踪算法,对图像目标区域作粒层分块来提取块颜色特征信息,并在颜色特征表示上作不同粒度的粒化,最后在Mean Shift迭代框架下实现行人跟踪。该方法相比传统的跟踪方法具有计算复杂度更低、稳健性更好的优点。在PETS2009和CAVIAR数据库上的实验表明,这种方法跟踪正确率更高,在颜色干扰下稳健性更好,能够实时有效地跟踪行人。  相似文献   

7.
针对TLD算法跟踪框在目标非刚性形变、旋转、背景杂乱等情景中容易导致跟踪漂移的问题,提出了一种融合CN跟踪算法改进的TLD实时目标跟踪算法(TLD-CN)。首先对跟踪框内区域计算图像显著性得到BRISK算法采样特征点的阈值,获得合适的特征点以建立旋转和尺度归一化的描述子,再融合颜色特征和纹理特征对前后帧跟踪框内描述子进行最优相似性匹配,得到匹配的特征点集合,对集合内特征点进行判别式字典的稀疏编码后,分别与CN跟踪框和TLD跟踪框的中心像素点进行相似度的度量,得到输出框调整的权重系数。实验结果表明,TLD-CN跟踪算法通过特征点度量出2种算法融合的权重值调整输出框,在目标形变、旋转、背景杂乱、快速运动等复杂跟踪情景中,具有很高的精度和成功率。权重系数自适应更新也避免了模型过拟合,达到实时跟踪效果。  相似文献   

8.
针对大多数目标跟踪算法采用单一特征描述目标,在背景区域出现相似的干扰特征时跟踪精确度较低的问题,提出了一种引入视觉显著性的多特征融合的目标跟踪算法。首先,采用视觉显著性机制处理颜色直方图得到显著性特征,再使用混合特征策略融合显著性特征和BRISK(binary robust invariant scalable keypoints)特征,获取目标前景和背景模型;其次,运用双向光流检测和误差度量提取动态特征,并使用自适应搜索机制提取候选目标区域的静态特征,融合动态特征和静态特征;最后,根据匹配算法估算目标跟踪框的自适应尺度及中心,确定目标在当前帧图像中所处的位置。实验结果表明,该算法能够处理强烈光照变化、目标尺度变化、快速运动及部分遮挡等情况下的目标跟踪问题,并实时稳定地获得单目标跟踪结果。  相似文献   

9.
针对行人跟踪算法中因行人遮挡而导致行人跟踪准确率低、跟踪速度慢的问题,论文提出了一种基于深度学习和颜色特征的行人跟踪算法。首先利用yolov5目标检测算法检测行人,得到带有行人框的视频帧,同时利用检测框坐标信息判断行人之间是否存在遮挡,若有遮挡,则把遮挡区域像素设为0,分割出非遮挡区域,将非遮挡区域转化为HSV颜色空间,量化HSV分量,构造颜色特征直方图,并表示为一维向量G。其次,以第一帧行人检测框坐标为基础构建行人跟踪模型,初始化跟踪对象,并根据行人质心变化预测行人位置。在公开数据集MOT-16数据集上测试,MOTA为49.78%,相比于Sort和DeepSort算法分别提高1.51%和0.33%,在IDF1分数上分别高于Sort和DeepSort算法7.07%和3.46%。跟踪速度比DeepSort提升24%。  相似文献   

10.
单目标跟踪是计算机视觉领域中的研究热点.传统算法如相关滤波的跟踪速度较快,但由于提取到的颜色、灰度等手工特征较为粗糙,跟踪精度往往不高.近年来随着深度学习理论的发展,使用深度特征的跟踪方法能够在跟踪的精度和速度方面达到很好的平衡.本文首先介绍单目标跟踪的相关背景,接着从相关滤波单目标跟踪、深度学习单目标跟踪两个阶段对单...  相似文献   

11.
李虹瑾  彭力 《控制与决策》2023,38(9):2554-2562
随着目标跟踪技术在多种视觉任务中的广泛应用,跟踪算法的实时性变得越来越重要.全卷积孪生网络跟踪算法(SiamFC)虽然在跟踪速度方面较为理想,但在复杂的跟踪环境下很容易出现跟踪漂移.为了能在提高算法精度的同时保证实时性,提出一种基于负样本挖掘与特征融合的高速跟踪算法.首先,为了学到更深层次特征,又不过多增加额外参数运算,使用增加了剪裁层的轻量级网络ShuffleNetV2进行特征提取,提升跟踪速度;其次,在离线训练阶段引入不同种类的负样本对,加强对语义信息的学习,从而提升模型的特征判别能力;最后,为了得到更高质量的响应图,提出一种多尺度特征融合策略,充分利用浅层与深层特征,提高跟踪精度.在OTB100和VOT2018两个数据集上与其他跟踪算法进行对比实验,结果表明:所提出算法较基准算法SiamFC在各项指标上有大幅度提升,在两个数据集下分别收获8.3%和7.9%的增益;同时在NIVIDA GTX l070下的速度可达114FPS.  相似文献   

12.
针对无人机视频中存在目标密集、运动噪声强而导致跟踪性能显著下降的问题,提出了一种改进YOLOv3的车辆检测算法及一种基于深度度量学习的多车辆跟踪算法。针对车辆检测的精度与实时性问题,采用深度可分离卷积网络MobileNetv3作为特征提取网络实现网络结构轻量化,同时采用CIoU Loss作为边框损失函数对网络进行训练。为了在多目标跟踪过程中提取到更具判别力的深度特征,提出了一种基于深度度量学习的多车辆跟踪算法,实验证明,本文提出的算法有效改善车辆ID跳变问题,速度上满足无人机交通视频下车辆跟踪的实时性要求,达到17 f/s。  相似文献   

13.
行人检测是目标检测中的一个重要研究方向。针对行人检测算法在复杂场景和目标太小情况下漏检的问题,在Faster R-CNN检测算法的基础上,提出一种基于浅层特征融合引导的深层网络行人检测。通过HOG特征、改进的LBP特征与深度网络特征融合获得准确的行人特征,在国际上广泛使用的行人数据集上进行一系列实验。结果表明,所提出的改进方法在检测准确率和速率方面都有所提高。  相似文献   

14.
对于一些较为流行的应用,例如视频场景监控,对行人的长期有效跟踪是应用的基础.尽管对目标检测与跟踪的相关技术研究已经有了很长的历史,但是如何实时并较为准确地实现目标行人跟踪目前仍然是一个活跃的研究领域.基于多粒度的思想,提出了一种改进的行人跟踪算法,将卷积特征与底层颜色特征结合,对基于深度学习的跟踪算法GOTURN(generic object tracking using regression networks)得到的跟踪结果进行判断决策,结合目标检测对跟踪结果进行修正.实验结果表明:与单一的跟踪算法相比,多粒度决策的跟踪算法能够更加准确地对目标行人进行跟踪,可以显著提高跟踪精度.  相似文献   

15.
为了解决在实际道路场景中对摩托车驾乘者头盔佩戴情况的检测与跟踪问题,提出一种优化的DeepSORT多目标跟踪摩托车头盔检测算法。使用改进的YOLOv3算法作为目标检测器,该方法采用MobileNetv3-Large作为YOLOv3特征提取网络,以轻量化网络结构,借鉴CEM模块的思想,引入SoftPool池化层和SE模块,构建了深浅语义融合增强模块,加强网络对输入特征深浅语义的编码能力。为了实现摩托车头盔佩戴分类和DeepSORT算法中外观特征识别模型的优化,构建多任务学习框架,通过对比损失函数和改进的交叉损失函数对多任务网络进行迭代训练来提升相似度学习能力和实现最终头盔佩戴情况分类。实验结果表明:在目标检测方面,改进网络的摩托车检测精度相较原始算法提升了4.56个百分点,模型大小仅为YOLOv3的13.7%。结合DeepSORT算法,多目标跟踪准确率相较于YOLOv3-DeepSORT算法从51.6%提升到了67.5%,多目标跟踪精度从57.3%提升到75.6%,检测追踪速度由6 FPS提升到了20 FPS,最终的NPH模型检测分类精度为72.42%。实现了对实际道路中摩托车驾乘人员头...  相似文献   

16.
YOLOv4计算复杂度高、空间金字塔池化模块仅一次增强特征融合网络的深层区域特征图的表征能力、检测头网络的特征图难以突出重要通道特征;针对以上问题,提出一种基于注意力机制和多空间金字塔池化的实时目标检测算法;该算法采用多空间金字塔池化,提取局部特征和全局特征,融合多重感受野,加强特征融合网络的浅、中、深层特征图的表征能力;引入压缩激励通道注意力机制,建模通道间的相关性,自适应调整特征图各个通道的权重,从而使网络更加关注重要特征;特征融合和检测头网络中使用深度可分离卷积,减少了网络参数量;实验结果表明,所提算法的均值平均精度均高于其他七种主流对比算法;与YOLOv4相比,参数量、模型大小分别减少了27.85 M和106.25 MB,所提算法在降低复杂度的同时,提高了检测准确度;且该算法的检测速率达到33.70 帧/秒,满足实时性要求。  相似文献   

17.
针对传统目标检测模型参数量巨大,制约算法部署与模型推理实时性的问题,提出一种基于改进RetinaNet检测模型的轻量化实时目标检测网络。使用MobileNet-V2代替RetinaNet模型中的ResNet骨干网络,降低整体模型的参数量;设计锚框引导采样机制,基于特征金字塔输出特征层生成感兴趣区域掩码,减少背景区域冗余锚框,降低后处理过程中的计算复杂度;引入GFocalLossV2损失函数统计预测边框分布特征,优化预测边框质量以及提升分类准确度。该模型在自制多类别工件数据集WP和Pascal VOC公开数据集上进行验证实验,改进模型的检测准确率分别达到99.5%、80.5%,检测速度分别达到39.8 FPS、38.3 FPS。实验结果表明,该轻量级目标检测模型能够实现实时检测,同时保证了检测精度。  相似文献   

18.
针对基于孪生网络的目标跟踪中大部分方法是利用主干网络的最后一层语义特征来计算相似度,而单一地利用深层特征空间往往是不够的问题,提出基于孪生网络的渐进注意引导融合跟踪方法.首先采用主干网络提取深层和浅层特征信息;然后通过特征聚合模块,以自顶向下的方法去编码融合深层语义信息以及浅层空间结构信息,并利用注意力模块减少融合产生...  相似文献   

19.
目前基于Transformer的目标跟踪算法主要利用Transformer来融合深度卷积特征,忽略了Transformer在特征提取和解码预测方面的能力。针对上述问题,提出一种基于视觉Transformer的双流目标跟踪算法。引入基于注意力机制的Swin Transformer进行特征提取,通过移位窗口进行全局信息建模。使用Transformer编码器对目标特征和搜索区域特征进行充分融合,使用解码器学习目标查询中的位置信息。分别对编解码器中的双流信息进行目标预测。在决策层面上进一步地加权融合得到最终跟踪结果,并使用多监督策略。该算法在LaSOT、TrackingNet、UAV123和NFS四个具有挑战性的大规模跟踪数据集上取得了先进的结果,分别达到67.4%、80.9%、68.6%和66.0%的成功率曲线下面积,展示了其强大的潜力。此外,由于避免了复杂的后处理步骤,能够端到端进行目标跟踪,跟踪速度可达42?FPS。  相似文献   

20.
对移动对象的轨迹预测将在移动目标跟踪识别中具有较好的应用价值。移动对象轨迹预测的基础是移动目标运动参量的采集和估计,移动目标的运动参量信息特征规模较大,传统的单分量时间序列分析方法难以实现准确的参量估计和轨迹预测。提出一种基于大数据多传感信息融合跟踪的移动对象轨迹预测算法。首先进行移动目标对象进行轨迹跟踪的控制对象描述和约束参量分析,对轨迹预测的大规模运动参量信息进行信息融合和自正整定性控制,通过大数据分析方法实现对移动对象运动参量的准确估计和检测,由此指导移动对象轨迹的准确预测,提高预测精度。仿真结果表明,采用该算法进行移动对象的运动参量估计和轨迹预测的精度较高,自适应性能较强,稳健性较好,相关的指标性能优于传统方法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号