首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 171 毫秒
1.
为了进一步提高多尺度目标检测的速度和精度,解决小目标检测易造成的漏检、错检以及重复检测等问题,提出一种基于改进YOLOv3的目标检测算法实现多尺度目标的自动检测。首先,在特征提取网络中对网络结构进行改进,在残差模块的空间维度中引入注意力机制,对小目标进行关注;然后,利用密集连接网络(DenseNet)充分融合网络浅层信息,并用深度可分离卷积替换主干网络中的普通卷积,减少模型的参数量,提升检测速率。在特征融合网络中,通过双向金字塔结构实现深浅层特征的双向融合,并将3尺度预测变为4尺度预测,提高了多尺度特征的学习能力;在损失函数方面,选取GIoU(Generalized Intersection over Union)作为损失函数,提高目标识别的精度,降低目标漏检率。实验结果表明,基于改进YOLOv3(You Only Look Once v3)的目标检测算法在Pascal VOC测试集上的平均准确率均值(mAP)达到83.26%,与原YOLOv3算法相比提升了5.89个百分点,检测速度达22.0 frame/s;在COCO数据集上,与原YOLOv3算法相比,基于改进YOLOv3的目标检测算法在mAP上提升了3.28个百分点;同时,在进行多尺度的目标检测中,算法的mAP有所提升,验证了基于改进YOLOv3的目标检测算法的有效性。  相似文献   

2.
安全帽是施工人员的安全保障,但是现有安全帽检测模型在复杂环境下对重叠和密集小目标存在误检和漏检等问题,为此提出改进YOLOv5的小目标检测算法。在YOLOv5的主干网络中加入Transformer捕获多个尺度上的全局信息,获得更丰富的高层语义特征;使用GsConv卷积进行特征融合增强,并引入坐标注意力机制(coordinate attention),让网络在更大区域上进行注意;检测头将分类和回归进行解耦,加快收敛速度;使用无锚点(anchor-free)的检测方法,简化算法结构,加快检测速度;使用EIOU损失函数来优化边框预测的准确度。在自制安全帽数据集上实验结果表明,改进的YOLOv5模型平均精度达到了96.33%,相比于YOLOv5模型,平均精度提高了4.73个百分点,达到了在复杂条件下对重叠和密集小目标检测的要求。  相似文献   

3.
目标数量多、尺度较小与高度重叠等问题导致目标检测精度低、难度大。为提升目标检测精度,尽可能避免漏检、误检情况,提出一种基于边界极限点特征的改进YOLOv3目标检测算法。首先,引入边界增强算子Border,从边界的极限点中自适应地提取边界特征来增强已有点特征,提高目标定位准确度;然后,增加目标检测尺度,细化特征图,增强特征图深、浅层语义信息的融合,提高目标检测精度;最后,基于目标检测中目标实例特性及改进网络模型,引入完全交并比(CIoU)函数对原YOLOv3损失函数进行改进,提高检测框收敛速度以及检测框召回率。实验结果表明,相较于原YOLOv3目标检测算法,改进后的YOLOv3目标检测算法的平均精度提高了3.9个百分点,且检测速度与原算法相近,能有效提高模型对目标的检测能力。  相似文献   

4.
合成孔径雷达图像中舰船目标的尺度差异大、小目标居多,这给检测造成一定的困难。针对此问题,提出了一种基于改进YOLOv3-SPP的SAR图像舰船目标检测算法。改进原模型FPN,利用主干网络的第二次下采样输出的特征来建立尺度为104×104的预测,并将各个尺度进行紧密连接;用K-median++聚类算法重新对锚框聚类来得到适合舰船特征的先验框。使用YOLOv3-SPP模型和改进的YOLOv3-SPP模型以及其他典型目标检测算法在AIR-SARship-1.0与SSDD数据集上进行对比实验。实验结果表明,相比于原始算法,改进后的算法能更有效地检测SAR图像舰船目标,检测精度分别提升了3.2%、4.4%。在数据集3个不同输入尺度下,检测精度都有所提升。相比于其他检测算法,改进后的算法在保证实时性的情况下具有更高的检测精度。  相似文献   

5.
针对多尺度目标检测准确率偏低的问题,提出了一种基于YOLOv5s改进的多尺度目标检测算法。在YOLOv5s主干网络与Neck网络之间融合CBAM模块,增强模型对多尺度目标重要特征信息的提取能力;同时,在模型的Head部分增加多尺度目标检测结构,提高不同尺度目标检测精度;训练时采用CIoU替代GIoU损失函数,以提高模型收敛能力,实现高精度目标定位。数据集来源于实际场景中采集并增强的4万余张图像。实验结果表明,改进后的模型对行人、车辆和人脸的多尺度目标检测平均精度达92.1%,相比未改进YOLOv5s算法提升了3.4%。模型的收敛性好,对密集场景的目标,小尺度目标检测准确度更加突出。  相似文献   

6.
针对人体行为检测中相同行为差异大, 不同行为相似度高, 以及视觉角度、遮挡、不能实时检测等问题, 提出Hierarchical Bilinear-YOLOv3人体行为检测网络. 该网络采用YOLOv3在3个不同尺度上进行预测, 抽取YOLOv3金字塔特征提取网络中特定层作为Hierarchical Bilinear的输入, 捕获特征图的层间局部特征关系, 并在3个不同尺度上进行预测, 最后将YOLOv3和Hierarchical Bilinear两种预测结果融合. 实验结果显示, 改进后的模型相比于原网络仅增加了少量参数, 在保证检测效率的同时提高原算法的检测精度, 并在一定程度上优于当前行为检测算法.  相似文献   

7.
针对无人机航拍图像中目标小、尺度不一和背景复杂等导致检测精度低的问题,提出一种基于改进YOLOv5的无人机航拍图像目标检测算法DY-YOLOv5。该算法在检测头部分利用具有多重注意力机制的目标检测头方法Dynamic Head,提升检测头在复杂背景下的检测表现。在原模型neck部分增加一次上采样和Concat操作,并执行一个包含极小、小、中目标的多尺度特征检测,提升模型对中、小目标的特征提取能力。引入密集卷积网络DenseNet,将其与YOLOv5s主干网络的C3模块进行融合,提出C3_DenseNet模块,以加强特征传递并预防模型过拟合。在VisDrone2019数据集上应用DY-YOLOv5算法,平均精度均值(mAP)达到了43.9%,较原YOLOv5算法提升了11.4个百分点。召回率(Recall)为41.7%,较原算法提升了9.0个百分点。实验结果证明,改进算法显著提高了无人机航拍图像目标检测的精度。  相似文献   

8.
针对机场跑道异物(Foreign Object Debris,FOD)的小目标特点,提出一种基于改进YOLOv3的FOD目标检测算法。以YOLOv3网络为基础,采用运算复杂度相对更低的Darknet-49作为特征提取网络,并将检测尺度增加至4个,进行多尺度特征融合。使用基于马尔科夫链蒙特卡罗采样(Markov Chain Monte Carlo sampling,MCMC)的[K]-means++算法对标注边界框尺寸信息进行聚类分析。训练时引入GIoU边界框回归损失函数。实验结果表明,改进的YOLOv3目标检测算法在满足实时性要求的情况下,精确率和召回率达到了95.3%和91.1%,与Faster R-CNN相比具有更高的检测速度,与SSD相比具有更高的检测精度,有效解决了原YOLOv3存在的定位精度偏低和漏检问题。  相似文献   

9.
针对轧刚表面缺陷种类多样、形状多变导致检测效率低、精度差的问题,提出了一种改进YOLOv3的轧钢表面缺陷检测算法。首先,对骨干网络提取的特征采用PSA金字塔拆分注意力模块进行多尺度融合。其次,采用PAN结构代替FPN,使得浅层语义和深层语义的特征能充分融合。接着采用Decoupled_Head,将回归预测和逻辑预测分离以避免之间的干扰。最后,在损失函数方面,根据真实框大小赋予不同权值,以提高网络对小目标的检测效果。实验表明改进后的YOLOv3在NEU-DEU数据集上的平均检测精度为80.01%,比原始的YOLOv3提高了3.05%,且相较于YOLOx、YOLOv5等算法也有较大的检测精度优势。  相似文献   

10.
针对当前目标检测任务中对小目标检测识别率低,漏检率高的问题,提出一种基于门控通道注意力机制(EGCA)和自适应上采样模块的改进YOLOv3算法。该算法采用DarkNet-53作为主干网络进行图片基础特征提取;引入自适应上采样模块对低分辨率卷积特征图进行扩张,有效增强了不同尺度卷积特征图的融合效果;在三个尺度通道输出预测结果之前分别加入EGCA注意力机制以提高网络对小目标的特征表达和检测能力。将改进的算法在公开数据集RSOD(remote sensing object detection)上进行实验,小目标检测精度提升了8.2个百分点,最为显著,平均精度AP值达到56.3%,较原算法提升了7.9个百分点。实验结果表明,改进的算法相比于传统YOLOv3算法和其他算法拥有更好的小目标检测能力。  相似文献   

11.
YOLOv3目标检测算法检测速度快且精度较高,但存在对小目标检测能力不足、边界框定位不准确等问题。提出了一种基于YOLOv3改进的目标检测算法,该算法在YOLOv3的基础上,对网络中的残差块增加旁路连接,进一步进行特征重用,以提取更多的特征信息。同时,采用GIoUloss作为边界框的损失,使网络朝着预测框与真实框重叠度较高的方向去优化。在损失函数中加入Focal loss,减小正负样本不平衡带来的误差。在PASCAL VOC和COCO数据集上的实验结果表明,该算法能够在不影响YOLOv3算法实时性的前提下,提高目标检测的mAP。该算法在PASCAL VOC 2007测试集上达到83.7mAP(IoU=0.5),在COCO测试集上比YOLOv3算法提升2.27mAP(IoU[0.5,0.95])。  相似文献   

12.
新冠状病毒具有很强的传染性,规范佩戴口罩可以阻隔病毒通过空气中的飞沫、气溶胶等载体传播,然而在公共场合时有公民不佩戴口罩或不规范佩戴口罩的现象,不利于疫情防控工作的开展。为解决这一问题,提出了一种自然环境下的实时人脸口罩检测与规范佩戴识别方法,采用YOLOv4算法,在自然环境下对公民口罩佩戴情况进行检测。针对模型参数量大,难以部署应用的难题,引入轻量级骨干网络L-CSPDarkNet(LightCSPDarkNet)以提高模型的检测速度,同时提出轻量级特征增强模块Light-FEB(Light Feature Enhancement Black)和多尺度注意力机制Multi-Scale-Sam(MultiScaleSam)增强轻量级主干网络的特征提取能力。实验结果表明,该算法精度可达91.94%,相比于原始YOLOv4算法提高了3.55个百分点,检测速度达到75?frame/s,高于原始YOLOv4的35?frame/s,可满足实际应用的需求。  相似文献   

13.
针对传统铁路异物检测方法中实时性不高、检测精度不够的问题,提出一种基于YOLOv3网络的高铁异物入侵的检测算法.为提高YOLOv3网络对图片特征的利用能力,利用可切换空洞卷积替代特征提取网络中的前四个3×3卷积,增加了卷积的感受野.然后为提升小物体检测精度,改进FPN结构,从YOLOv3特征提取网络中第二次下采样输出的...  相似文献   

14.
针对型钢表面缺陷种类多样、微小缺陷占比较大导致的检测效率低、检测精度差的问题,提出了一种基于双重多尺度注意力机制的表面缺陷检测方法DMSA-YOLOv3,实现型钢表面多尺度缺陷快速精确检测。构建了基于通道和空间的双重多尺度注意力模型DMSA,对不同尺度特征进行筛选融合,强化小尺度缺陷的特征权重;改进了YOLOv3模型,使用深度可分离卷积对DarkNet53特征提取主干网络实现轻量化处理,提高检测速度,并构建多尺度长距离上下文特征提取层,使用4种不同扩张率的并行空洞卷积替代全局池化,提高模型对小尺寸缺陷的特征提取能力;构建了融合DMSA模型和改进YOLOv3模型的DMSA-YOLOv3缺陷检测模型,并应用于型钢表面多尺度缺陷检测。实验结果表明:DMSA-YOLOv3模型具有97.6%的多类别平均检测精度和55.3?frame/s的检测速度,与YOLOv3模型相比分别提升了4.7个百分点和24.5?frame/s;最小可检出20×20像素(约10×10?mm2)缺陷,与YOLOv3模型相比提高了6.25倍,有效提升了型钢表面缺陷的检测精度与检测速度。  相似文献   

15.
针对当前YOLOv4目标检测网络结构复杂、参数多、训练所需的配置高以及实时检测每秒传输帧数(FPS)低的问题,提出一种基于YOLOv4的轻量化目标检测算法ML-YOLO。首先,用MobileNetv3结构替换YOLOv4的主干特征提取网络,从而通过MobileNetv3中的深度可分离卷积大幅减少主干网络的参数量;然后,用简化的加权双向特征金字塔网络(Bi-FPN)结构替换YOLOv4的特征融合网络,从而用Bi-FPN中的注意力机制提高目标检测精度;最后,通过YOLOv4的解码算法来生成最终的预测框,并实现目标检测。在VOC2007数据集上的实验结果表明,ML-YOLO算法的平均准确率均值(mAP)达到80.22%,与YOLOv4算法相比降低了3.42个百分点,与YOLOv5m算法相比提升了2.82个百分点;而ML-YOLO算法的模型大小仅为44.75 MB,与YOLOv4算法相比减小了199.54 MB,与YOLOv5m算法相比,只高了2.85 MB。实验结果表明,所提的ML-YOLO模型,一方面较YOLOv4模型大幅减小了模型大小,另一方面保持了较高的检测精度,表明该算法可以满足移动端或者嵌入式设备进行目标检测的轻量化和准确性需求。  相似文献   

16.
针对遥感图像中飞机目标检测精度低、检测速度慢、背景复杂等问题,提出了一种基于深度学习的改进YOLOv4目标检测算法。改进YOLOv4的主干特征提取网络,保留高分辨率的特征层,去除了用于检测大目标的特征层,减少语义丢失。在卷积神经网络中使用DenseNet(密集连接网络)加强对飞机目标的特征提取,减少梯度消失问题。对数据集使用[K]-means算法得到效果最佳的先验框数量和尺寸。在RSOD(Remote Sensing Object Detection)数据集和DIOR(Detection In Optical Remote sensing images)数据集上的实验表明,该算法满足实时性的需求,且该算法的精确度达到95.4%,较原算法提升了0.3个百分点;召回率达到86.04%,提升了4.68个百分点;mAP值达到85.52%,提升了5.27个百分点。  相似文献   

17.
针对在智能监控中安全帽佩戴检测准确率低和检测速率慢的问题,提出一种基于改进YOLOv3(You Only Look Once)的安全帽佩戴检测算法YOLOv3-WH。在YOLOv3算法的基础上改进网络结构,增大输入图像的尺度,使用深度可分离卷积结构替换Darknet-53传统卷积,减少特征的丢失,缩减模型参数,提升检测速率;使用多尺度特征检测,增加浅层检测尺度,添加4倍上采样特征融合结构,提高安全帽佩戴检测准确率;优化[K]-Means聚类算法,获取安全帽佩戴检测的先验框(anchor box),按照预测尺度大小分配适合的anchor,提升模型训练和检测速率。实验结果表明YOLOv3-WH相比YOLOv3,每秒检测帧数(FPS)提高了64%,检测平均精确度(mAP)提高了6.5%,该算法在提升了安全帽佩戴检测速率的同时提升了检测的准确率,对安全帽佩戴检测具有一定的实用性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号