首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对海面舰船检测问题,提出一种基于YOLOv4-tiny的改进算法。首先,对特征融合结构进行修改,加强浅层特征与深层特征的结合;其次,改进损失函数为Focal Loss,平衡正负样本分布不均的问题;最后,加入多尺度检测,提高算法对于小目标的检测能力。实验结果表明,改进后的YOLOv4算法在保持检测速度的同时提升了检测精度,在数据集上的检测精度达到86.27%,平均精度达到81.44%。  相似文献   

2.
针对视频序列中因脸部遮挡、漏检而造成的无法正确判断行人是否佩戴口罩的问题,提出一种基于改进YOLOv7与DeepSORT的佩戴口罩行人跟踪算法。该算法将口罩检测、行人检测与跟踪相结合,通过在YOLOv7的主干网络中添加注意力机制,增加浅层特征图,加强网络对小目标的感知能力,提高口罩检测与行人检测精度;帧内关系模块利用匈牙利算法进行帧内目标关联,对行人进行口罩佩戴标记;将方向差因素加入到DeepSORT算法的关联代价中,消除跟踪轨迹的历史预测方向和新检测速度方向不一致问题;使用改进的DeepSORT算法对行人进行跟踪,并对每条轨迹进行口罩佩戴标记更新,实现对佩戴口罩与未佩戴口罩行人的跟踪。实验结果表明,改进的YOLOv7网络平均检测精度mAP50相比原始算法提升了3.83个百分点;在MOT16数据集上,该算法的跟踪准确性MOTA相较DeepSORT算法提高了17.1个百分点,跟踪精度MOTP提高了2.6个百分点。与检测算法相比,提出的算法能够跟踪到更多的行人是否佩戴了口罩,具有更好的效果。  相似文献   

3.
王程  刘元盛  刘圣杰 《计算机工程》2023,49(2):296-302+313
行人检测在无人驾驶环境感知领域具有重要应用。现有行人检测算法多数只关注普通大小的行人目标,忽略了小目标行人特征信息过少的问题,从而造成检测精度低、应用于嵌入式设备中实时性不高等情况。针对该问题,提出一种小目标行人检测算法YOLOv4-DBF。引用深度可分离卷积代替YOLOv4算法中的传统卷积,以降低模型的参数量和计算量,提升检测速度和算法实时性。在YOLOv4骨干网络中的特征融合部分引入scSE注意力模块,对输入行人特征图的重要通道和空间特征进行增强,促使网络学习更有意义的特征信息。对YOLOv4颈部中特征金字塔网络的特征融合部分进行改进,在增加少量计算量的情况下增强对图像中行人目标的多尺度特征学习,从而提高检测精度。在VOC07+12+COCO数据集上进行训练和验证,结果表明,相比原YOLOv4算法,YOLOv4-DBF算法的AP值提高4.16个百分点,速度提升27%,将该算法加速部署在无人车中的TX2设备上进行实时测试,其检测速度达到23FPS,能够有效提高小目标行人检测的精度及实时性。  相似文献   

4.
在智能视频监控系统的行人检测中,目前使用的目标检测算法R-CNN和YOLO系列算法或速度较慢,无法满足实时性要求;或需要较大的GPU显存空间,难以部署。YOLOv3-tiny算法作为YOLO系列的精简版本,对设备要求较低、速度快,但该算法精度较低。本文通过调整YOLOv3-tiny算法的grid cell横纵方向数量、优化YOLOv3-tiny算法网络结构、聚类确定anchor的数量及尺寸,得到改进的YOLO-Y算法,并通过数据增强方法对训练数据集进行扩充。改进的YOLO-Y算法将mAP从90%提升到92%,Recall从95%提升到97%,检测速度达到26帧/s,占用约1 GB显存空间。实验结果表明改进的YOLO-Y算法显著提高了算法检测精度,具有实时性,且不需要太大的显存空间,满足大部分智能视频监控系统的要求。  相似文献   

5.
杨易 《信息与电脑》2022,(18):159-161
针对无人机(Unmanned Aerial Vehicle,UAV)图像背景复杂、检测目标尺度小以及计算资源受限的特点,提出了一种基于改进YOLOv4-tiny的无人机视觉目标检测方法。基于YOLOv4-tiny改进主干网络,减少主干网络的下采样倍数,在保证检测速度的情况下,提升小目标检测精度。在VisDrone数据集上的实验表明,改进算法较原算法平均精度提高5.7%,且具有与原模型同样的规模。  相似文献   

6.
针对狭小空间中目标相互遮挡导致轻型检测网络存在大量漏检、分类错误等问题,基于YOLOv4-tiny提出一种自适应非极大抑制(adaptive non-maximum suppression,A-NMS)的多尺度检测方法。在骨干网络引入大尺度特征图优化策略和金字塔池化模型,增强遮挡目标显著区域特征;设计内嵌空间注意力的双路金字塔特征融合网络,提升浅层细节特征与高级语义信息的融合能力;提出区域目标密度与边界框中心距离因子相关联的动态NMS阈值设定方法,并在后处理阶段代替传统IoU-NMS算法,进一步减少漏检。实验结果表明,与YOLOv4-tiny算法相比,改进算法在公开数据集PASCAL VOC07+12和自制数据集上mAP值分别提高2.84个百分点和3.06个百分点,FPS保持在87.9,对遮挡目标的检测能力显著提升,满足移动端对狭小复杂场景实时检测的需求。  相似文献   

7.
针对景区内高密度行人检测中遮挡与小目标行人漏检率高、模型复杂度高、计算量大的问题,提出一种YOLOv5-GSPE改进算法模型,在保证精度的同时改善检测效果,降低模型复杂度。改进算法模型通过GhostConv优化主干网络中常规卷积(Conv)降低模型复杂度,并使用空洞卷积改善SPPF模块中池化操作带来的特征信息丢失,提升模型检测时效性,增强主干网络特征提取。提出一种增强的特征金字塔网络—PrFPN,使用同层连接进一步丰富原始输入特征的融合,减少特征提取过程中的特征损失。将引入正态分布计算优化后的EIoU损失函数作为边界框回归损失函数,提高边界框定位精度。实验结果表明,YOLOv5-GSPE算法模型对比YOLOv5s模型在保证检测时效性的情况下整体复杂度降低了12.51%,基于Pedestrian测试集的平均精度提升4.05%,基于WiderPerson测试集的平均精度提升3.28%,并降低了行人遮挡及小目标漏检率,改善了检测效果,该模型的可行性与有效性得到验证。  相似文献   

8.
针对YOLOv3算法在监控视频行人检测中对遮挡目标漏检率较高的问题,文中提出改进YOLOv3网络结构的遮挡行人检测算法.首先在网络全连接层引入空间金字塔池化网络,增强网络的多尺度特征融合能力.然后采用网络剪枝的方式,精简网络冗余结构,避免网络层数加深导致的退化和过拟合问题,同时减少参数量.在走廊行人数据集上进行多尺度训练,获得最优的权重模型.实验表明,文中方法在平均准确率和检测速度上都有所提升.  相似文献   

9.
目标检测算法在视频监控领域有着较大的实用价值。针对当前在资源受限的视频监控系统中实现实时目标检测较为困难的情况,提出了一种基于YOLOv3-tiny改进的目标检测算法。该算法在YOLOv3-tiny架构的基础之上,通过添加特征重用来优化骨干网络结构,并提出全连接注意力混合模块来学习到更丰富的空间信息,更适合资源约束条件下的目标检测。实验数据表明,该算法相比于YOLOv3-tiny在模型体积降低39.2%,参数量降低39.8%,且在VOC数据集上提高了2.7%的mAP,在提高检测精度的同时显著降低了模型资源占用。  相似文献   

10.
为了研究传统目标检测算法在进行道路小目标检测时效果不佳及漏检率较高等问题,本文提出了一种基于改进YOLOv3的小目标检测方法.首先通过设计新的特征融合结构降低小目标漏检率,并且使用DIOU损失提高定位精确度.同时对YOLOv3算法中的聚类算法进行改进,采用K-means++算法改进聚类先验框中心点的提取,选取更为合适的Anchor Box,用于提高检测的平均精度和速度.在自制混合数据集上对行人及车辆进行对比检测,在不影响检测速度的情况下,改进的YOLOv3算法能够有效降低小目标物体漏检率,并且提高了检测精度.根据实验结果,本文所提出的改进YOLOv3模型在混合数据集上的平均精度达到92.82%,与未改进的YOLOv3算法相比提高了2.77%.  相似文献   

11.
为了提高视频监控中人数统计的精度和速度,解决传统人体检测由于衣物身体阻挡而造成的高遮挡问题。提出一种改进的轻量人头检测方法MKYOLOv3-tiny。该方法是对YOLOv3-tiny进行改进,针对低层的人头特征进行多尺度融合,实现不同卷积层的分类预测与位置回归,提升检测的精度;针对人头较小的特点,结合有效感受野的思想,K-means聚类减小初始候选框的规格,提升候选框的精度。实验结果表明,改进后的模型在Brainwash密集人头检测数据集上与原方法相比,在精度上提升了3.21%,漏检率降低了8.7%。  相似文献   

12.
施政  毛力  孙俊 《计算机工程》2021,47(8):234-242
在夜间光照不足、目标被遮挡导致信息缺失以及行人目标多尺度的情况下,可见光单模态行人检测算法的检测效果较差。为了提高行人检测器的鲁棒性,基于YOLO提出一种可见光与红外光融合的行人检测算法。使用Darknet53作为特征提取网络,分别提取2个模态的多尺度特征。对传统多模态行人检测算法所使用的concat融合方式进行改进,设计结合注意力机制的模态加权融合层,以加强对融合特征图的模态选择。在此基础上,使用多尺度的融合特征进行行人检测。实验结果表明,模态加权融合较concat融合有较大的精度提升,且该算法在夜间光照不足、目标遮挡和目标多尺度情况下检测效果良好,在KAIST数据集上的检测精度优于HalFusion和Fusion RPN+BDT等算法,检测速度也有较大提升。  相似文献   

13.
针对自然环境下节肢动物背景复杂、形态万千、遮挡目标和目标尺度多样等因素,导致模型检测效率不高、边界框定位不准确的情况,提出一种基于改进YOLOv4-tiny的节肢动物目标检测模型。首先,结合空间、通道卷积注意力机制(CBAM),抑制背景噪声;其次,引入可变形卷积(DCN)以及改进的加权双向特征金字塔,重塑卷积和特征融合方式进行多尺度预测;最后,在FPN网络中引出一层Feat@3,嵌入空间金字塔池化结构,有效提取节肢动物的各种显著特征,使模型泛化能力更强,将改进后的模型命名为YOLOv4-tiny-ATO。实验结果表明,该模型在大小仅为54.6 Mb的前提下,很好地平衡了检测速度和检测精度,检测精度为0.725,检测速度达到89.6帧·s -1,召回率为0.585,较改进前相比YOLOv4-tiny模型,检测精度提高0.426,模型在模型大小、检测速度上更适用于移动端部署,模型检测精度也能达到应用标准,满足对节肢动物的检测需求。  相似文献   

14.
针对交通场景中由光照、遮挡、目标小以及背景复杂等因素导致目标检测精度低,易出现漏检和误检问题的情况,提出了一种基于YOLOv7的交通目标检测算法;该算法在主干网络中融入多头注意力机制,以增强网络特征学习能力,从而更好地捕获数据和特征内部的相关性;在YOLOv7颈部网络引入协调注意力模块(CA),将位置信息嵌入到注意力机制中,忽略无关信息的干扰,以增强网络的特征提取能力;增加一个多尺度检测网络,以增强模型对不同尺度目标的检测能力;将CIoU损失函数更改为SIoU函数,以减少模型收敛不稳定问题,提高模型的鲁棒性;实验结果表明,改进的算法在BDD100K公开数据集上的检测精度和速度分别达到了59.8% mAP和96.2 FPS,相比原算法检测精度提高了2.5%;这表明改进的算法在满足实时性要求的同时,具备良好的检测精度,适用于复杂情况下的交通目标检测任务。  相似文献   

15.
针对现存交通标志识别模型参数量过大、检测速度慢和检测精度较低的问题,本文提出一种改进YOLOv4-tiny的交通标志识别算法.该算法将深度可分离卷积应用到YOLOv4-tiny的特征提取网络中,显著降低了主干网络的参数量和计算量.在特征融合阶段,将特征提取网络得到的不同层次特征图输入双向特征金字塔网络结构(BiFPN)中进行多尺度特征融合.最后,在损失函数设计过程中,使用Focal损失函数代替二分交叉熵损失函数,使检测过程中的正负样本数量不均衡问题得以解决.在TT100K数据集上的测试结果表明,该算法的平均精度均值达到87.5%,相比于YOLOv4-tiny提升了3.9%,模型大小为14MB,仅为YOLOv4-tiny的58%.该算法一定程度上减少了计算量和模型大小,并带来了检测速度和精度的提升.  相似文献   

16.
李明  鹿朋  朱龙  朱美强  邹亮 《控制与决策》2023,38(10):2867-2874
针对当前抓取检测模型对密集遮挡物体的检测效果差以及人工数据标注工作量大的问题,提出基于RGB-D图像融合的目标检测与抓取检测分步骤进行的改进方案.新方案支持将单物体图像训练的抓取检测模型直接应用于密集遮挡的多物体图像场景中.首先,考虑到密集遮挡场景下抓取物具有多尺度的特点,提出子阶段路径聚合(SPA)的多尺度特征融合模块,用于丰富RGB-D特征级别融合的目标检测模型SPA-YOLO-Fusion的高维语义特征信息,以便于检测模型定位所有的抓取物;其次,使用基于RGB-D像素级别融合的GR-ConvNet抓取检测模型估计每个物体的抓取点,并提出背景填充的图像预处理算法来降低密集遮挡物体的相互影响;最后,使用机械臂对目标点进行抓取.在LineMOD数据集上对目标检测模型进行测试,实验结果表明SPA-YOLO-Fusion的mAP比YOLOv3-tiny与YOLOv4-tiny分别提高了10%与7%.从实际场景中采集图像制作YODO_Grasp抓取检测数据集并进行测试,结果表明增加背景填充预处理算法的GR-ConvNet的抓取检测精度比原模型提高了23%.  相似文献   

17.
目标数量多、尺度较小与高度重叠等问题导致目标检测精度低、难度大。为提升目标检测精度,尽可能避免漏检、误检情况,提出一种基于边界极限点特征的改进YOLOv3目标检测算法。首先,引入边界增强算子Border,从边界的极限点中自适应地提取边界特征来增强已有点特征,提高目标定位准确度;然后,增加目标检测尺度,细化特征图,增强特征图深、浅层语义信息的融合,提高目标检测精度;最后,基于目标检测中目标实例特性及改进网络模型,引入完全交并比(CIoU)函数对原YOLOv3损失函数进行改进,提高检测框收敛速度以及检测框召回率。实验结果表明,相较于原YOLOv3目标检测算法,改进后的YOLOv3目标检测算法的平均精度提高了3.9个百分点,且检测速度与原算法相近,能有效提高模型对目标的检测能力。  相似文献   

18.
在图像和视频序列中进行行人检测时,存在行人姿态和尺度多样及行人遮挡的问题,导致YOLOv4算法对部分行人检测不准确,存在误检和漏检的情况。针对这一问题,提出了基于YOLOv4改进算法的复杂行人检测模型。首先,使用改进的k-means聚类算法对行人数据集真实框尺寸进行分析,根据聚类结果确定先验框尺寸;其次,利用PANet进行多尺度特征融合,增强对多姿态、多尺度行人目标的敏感度,以提高检测效果;最后,针对行人遮挡问题,使用斥力损失函数使预测框尽可能地靠近正确的目标。实验表明,相比于YOLOv4和其他行人检测模型,新提出的检测模型具有更好的检测效果。  相似文献   

19.
针对已有的安全帽检测方法存在的模型参数量大,难以部署在边缘设备上,以及对较小目标检测效果不好等问题,提出一种改进YOLOv4-tiny的轻量级安全帽检测模型。针对小目标丢失过多问题,增加了检测小目标的尺度,提升模型关注小目标的能力。提出了一种轻量级特征融合结构,缓解特征融合部分的语义混叠问题,并且在模型中融入了优化的注意力模块,提升模型捕获上下文信息的能力。针对分类与回归任务之间的冲突,将模型预测头替换为解耦合的预测头,采用并行的卷积分别进行分类与回归任务。将改进的模型命名为HM-YOLO,通过实验验证了HM-YOLO算法的有效性,相比YOLOv4-tiny模型,HM-YOLO模型平均精度提升了14.2个百分点,参数量减少了19%,检测速度为为63 FPS,具有良好的检测精度和实时性,更易于部署在边缘设备上。  相似文献   

20.
无人驾驶关键技术不断突破,并在更多场景中得到应用。研究车辆行人自动化检测算法具有十分重要的意义。为了提升系统的检测效果,解决因目标物体尺寸太小、目标遮挡以及复杂环境等因素影响所导致的检测精度不高的问题,提出了一种改进的YOLOv4模型对数据集进行训练,采用轻量化网络Mobilenetv2代替YOLOv4中原有的主干网络,以此获取有效特征层,降低原有网络的运算量和参数量。实验结果表明,改进的Mobilenetv2-YOLOv4模型可以达到40.76%的平均精度,每个epoch的学习时间仅约12 min,既保证了识别精度又提高了检测速度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号