首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 312 毫秒
1.
针对X光图像违禁品检测中的复杂背景、正负类别不平衡和漏检等问题,提出一种基于YOLOv5的X光违禁品检测算法。该算法通过在YOLOv5s骨干网络中引入Swin Transformer模块,利用局部自注意力与Shifted Window机制提升模型对X光图像全局特征的提取能力,并且在主干网络后增加空间注意力机制与通道注意力机制,以提升算法对违禁品关键特征的提取能力。引入一种自适应空间特征融合结构,缓解特征金字塔中不同层级特征图之间冲突对模型梯度的干扰。引入Focal Loss函数用于改进YOLOv5s的背景预测损失函数和分类损失函数,提升算法在正负样本与难易样本失衡情况下的检测能力。该算法在公开数据集SIXray100上的平均检测精度达到57.4%,相比YOLOv5s提高了4.5个百分点;在SIXray正样本数据集上的平均检测精度达到90.4%,相比YOLOv5s提高了2.4个百分点。实验结果表明,改进后的算法相比原始YOLOv5s算法检测精度有较大提升,证明了算法的有效性。  相似文献   

2.
针对YOLOv4在自建的汽车钢铁零件表面缺陷数据集中检测精度不足的问题,利用深度学习的优势,提出一种基于改进YOLOv4的汽车钢铁零件表面缺陷检测方法。首先采用加权K-means算法确定初始anchors预选框,增强anchors框和特征图尺寸的匹配精度,提高检测效率;然后在YOLOv4主干网络的残差单元中引入SE模块,增加有用特征的权重,抑制无效特征的权重来提高检测精度;最后在76×76的特征图后连接RFB-s模块,增强对小目标信息的特征提取能力。实验结果表明,针对自建汽车零件表面缺陷数据集有无缺陷单类检测问题,改进算法比原始YOLOv4的mAP50值提高了4.3个百分点,对小目标具有更好的检测效果。这说明改进算法能满足针对特定的汽车钢铁零件表面缺陷检测问题下的检测速度和精度要求,有效解决了实际问题。针对COCO数据集多分类问题,改进后模型的mAP50值比原始YOLOv4提高了0.2个百分点,FPS值达到20,说明改进算法能够迁移到其他数据集,验证了该算法的泛化性。  相似文献   

3.
针对当前目标检测任务中对小目标检测识别率低,漏检率高的问题,提出一种基于门控通道注意力机制(EGCA)和自适应上采样模块的改进YOLOv3算法。该算法采用DarkNet-53作为主干网络进行图片基础特征提取;引入自适应上采样模块对低分辨率卷积特征图进行扩张,有效增强了不同尺度卷积特征图的融合效果;在三个尺度通道输出预测结果之前分别加入EGCA注意力机制以提高网络对小目标的特征表达和检测能力。将改进的算法在公开数据集RSOD(remote sensing object detection)上进行实验,小目标检测精度提升了8.2个百分点,最为显著,平均精度AP值达到56.3%,较原算法提升了7.9个百分点。实验结果表明,改进的算法相比于传统YOLOv3算法和其他算法拥有更好的小目标检测能力。  相似文献   

4.
赵亮  刘世鹏 《控制与决策》2023,38(4):935-943
针对现有目标检测算法对于小目标检测精度低的问题,提出一种全局与局部图像特征自适应融合的一阶段小目标检测算法SODet.首先,将Transformer与卷积神经网络相结合构建主干网络,分别提取图像全局和局部信息,并利用自适应特征选择模块AFS对二者输出进行融合;然后,在特征融合网络中利用额外尺度特征图进行特征融合,同时利用大目标抑制单元约束大目标特征表达、转移小目标特征,输出4个尺度的特征图送入预测网络;最后,在损失函数部分针对小目标检测利用EIOU和Focal loss进行优化.实验结果表明, SODet算法在MS COCO验证集上APS达到31.5%,相比于其他算法具有较强的竞争力,同时具有较高的推理速度.  相似文献   

5.
YOLOv5是目前单阶段目标检测性能较好的算法,但对目标边界回归的精确度不高,难以适用对预测框交并比要求较高的场景。基于YOLOv5算法,提出一种对硬件要求低、模型收敛速度快、目标框准确率高的新模型YOLO-G。改进特征金字塔结构(FPN),采用跨层级联的方式融合更多的特征,一定程度上防止了浅层语义信息的丢失,同时加深金字塔深度,对应增加检测层,使各种锚框的铺设间隔更加合理;其次把并行模式的注意力机制融入到网络结构中,赋予空间注意力模块和通道注意力模块相同的优先级,以加权融合的方式提取注意力信息,使网络可根据对空间和通道注意力的关注程度得到混合域注意力;通过降低网络的参数量和计算量对网络进行轻量化处理,防止因模型复杂度提升造成实时性能的损失。使用PASCAL VOC的2007、2012两个数据集来验证算法的有效性,YOLO-G比YOLOv5s的参数量减少了4.7%,计算量减少了47.9%,而mAP@0.5提高了3.1个百分点,mAP@0.5:0.95提高了5.6个百分点。  相似文献   

6.
针对狭小空间中目标相互遮挡导致轻型检测网络存在大量漏检、分类错误等问题,基于YOLOv4-tiny提出一种自适应非极大抑制(adaptive non-maximum suppression,A-NMS)的多尺度检测方法。在骨干网络引入大尺度特征图优化策略和金字塔池化模型,增强遮挡目标显著区域特征;设计内嵌空间注意力的双路金字塔特征融合网络,提升浅层细节特征与高级语义信息的融合能力;提出区域目标密度与边界框中心距离因子相关联的动态NMS阈值设定方法,并在后处理阶段代替传统IoU-NMS算法,进一步减少漏检。实验结果表明,与YOLOv4-tiny算法相比,改进算法在公开数据集PASCAL VOC07+12和自制数据集上mAP值分别提高2.84个百分点和3.06个百分点,FPS保持在87.9,对遮挡目标的检测能力显著提升,满足移动端对狭小复杂场景实时检测的需求。  相似文献   

7.
遥感技术的快速发展使得遥感图像检测技术广泛应用于军事、农业、交通、城市规划等多个领域。随着遥感分辨率和数据体量的不断提升,通过人工处理数据的方法已经无法满足实时性需求,因此,实现高效、精准的自动化数据处理方式成为该领域的研究热点。针对遥感图像分辨率高、背景复杂、目标尺度小等特点,提出一种改进的YOLOv3算法,用以提升遥感图像的检测效果。在原始YOLOv3算法的基础上,使用改进的密集连接网络替换原有的DarkNet53作为基础网络,以提升网络输入和预测结果的尺度多样性。通过阀杆模块降低输入损失,同时在浅层特征图中加入特征增强模块,从而丰富特征图的感受野,强化网络对浅层特征信息的提取,在保证整体检测性能的同时使网络对遥感图像中、小目标的检测精度和鲁棒性均有所提升。在遥感图像数据集上进行多组对比实验,结果表明,相比原始YOLOv3算法,该算法的平均准确率提高9.45个百分点,在小尺度目标上的检测准确率提升更显著,达到11.03个百分点,且模型参数量得到有效缩减。  相似文献   

8.
YOLOv4计算复杂度高、空间金字塔池化模块仅一次增强特征融合网络的深层区域特征图的表征能力、检测头网络的特征图难以突出重要通道特征;针对以上问题,提出一种基于注意力机制和多空间金字塔池化的实时目标检测算法;该算法采用多空间金字塔池化,提取局部特征和全局特征,融合多重感受野,加强特征融合网络的浅、中、深层特征图的表征能力;引入压缩激励通道注意力机制,建模通道间的相关性,自适应调整特征图各个通道的权重,从而使网络更加关注重要特征;特征融合和检测头网络中使用深度可分离卷积,减少了网络参数量;实验结果表明,所提算法的均值平均精度均高于其他七种主流对比算法;与YOLOv4相比,参数量、模型大小分别减少了27.85 M和106.25 MB,所提算法在降低复杂度的同时,提高了检测准确度;且该算法的检测速率达到33.70 帧/秒,满足实时性要求。  相似文献   

9.
机场跑道异物严重影响飞行安全,针对现有算法对小目标存在误检、漏检等问题,提出一种改进的YOLOv5算法对机场跑道异物进行检测。在YOLOv5的主干网络中添加有效通道注意力(ECA)模块,通过少量参数的增加带来明显的性能增益。将颈部网络中原特征金字塔模块替换为加权双向特征金字塔(BiFPN)网络,实现双向跨尺度连接和加权特征融合。采用EIoU Loss作为损失函数,加快了收敛速度。在FOD-A数据集上的实验表明,改进后的YOLOv5模型均值平均精度(mAP@0.5)指标达到了97.4%,相比于原模型提高了1.6个百分点。  相似文献   

10.
为解决水面垃圾检测中存在目标形状尺度差异大, 难以区分背景以及目标偏小的问题, 本文提出了一种SPMYOLOv3目标检测算法来实现对水面垃圾的检测. 首先, 对收集到的水面垃圾数据集进行标注, 使用改进的K-means算法对数据集重新聚类, 得到与数据集更匹配的先验框. 其次, 在YOLOv3的主干网络后添加SE-PPM模块, 加强目标的特征信息, 保证目标尺度不变且保留全局信息. 再使用多向金字塔网络对不同尺度的特征图进行融合, 获得携带更加丰富的上下文信息的特征图. 最后使用在损失函数中使用focal loss计算负样本的置信度损失, 抑制了YOLOv3中正负样本不均衡问题. 改进后的算法在水面垃圾数据集上的实验结果表明, 相比于原YOLOv3算法检测精度提升了3.96%.  相似文献   

11.
目标数量多、尺度较小与高度重叠等问题导致目标检测精度低、难度大。为提升目标检测精度,尽可能避免漏检、误检情况,提出一种基于边界极限点特征的改进YOLOv3目标检测算法。首先,引入边界增强算子Border,从边界的极限点中自适应地提取边界特征来增强已有点特征,提高目标定位准确度;然后,增加目标检测尺度,细化特征图,增强特征图深、浅层语义信息的融合,提高目标检测精度;最后,基于目标检测中目标实例特性及改进网络模型,引入完全交并比(CIoU)函数对原YOLOv3损失函数进行改进,提高检测框收敛速度以及检测框召回率。实验结果表明,相较于原YOLOv3目标检测算法,改进后的YOLOv3目标检测算法的平均精度提高了3.9个百分点,且检测速度与原算法相近,能有效提高模型对目标的检测能力。  相似文献   

12.
针对机场跑道异物(foreign object debris,FOD)在图像中目标占比小,特征不明显,经常导致误检、漏检的问题,提出一种改进YOLOv5的FOD目标检测算法。改进多尺度融合与检测部分,融合高分辨率特征图增强小目标特征表达,移除大目标检测层以减少网络推理计算量;引入轻量高效的卷积注意力模块(CBAM),从空间与通道两个维度提升模型关注目标特征的能力;在特征融合阶段采用RepVGG模块,提高模型特征融合能力的同时提高了检测精度;采用SIoU Loss作为损失函数,提升了边框回归的速度与精度。在自制FOD数据集上进行对比实验,结果表明:该方法在满足实时性的条件下,实现了95.01%的mAP50、55.79%的mAP50:95,比原算法YOLOv5分别提高了2.78、3.28个百分点,有效解决了传统FOD检测误检、漏检问题,同时与主流目标检测算法相比,提出的改进算法更适用于FOD检测任务。  相似文献   

13.
王程  刘元盛  刘圣杰 《计算机工程》2023,49(2):296-302+313
行人检测在无人驾驶环境感知领域具有重要应用。现有行人检测算法多数只关注普通大小的行人目标,忽略了小目标行人特征信息过少的问题,从而造成检测精度低、应用于嵌入式设备中实时性不高等情况。针对该问题,提出一种小目标行人检测算法YOLOv4-DBF。引用深度可分离卷积代替YOLOv4算法中的传统卷积,以降低模型的参数量和计算量,提升检测速度和算法实时性。在YOLOv4骨干网络中的特征融合部分引入scSE注意力模块,对输入行人特征图的重要通道和空间特征进行增强,促使网络学习更有意义的特征信息。对YOLOv4颈部中特征金字塔网络的特征融合部分进行改进,在增加少量计算量的情况下增强对图像中行人目标的多尺度特征学习,从而提高检测精度。在VOC07+12+COCO数据集上进行训练和验证,结果表明,相比原YOLOv4算法,YOLOv4-DBF算法的AP值提高4.16个百分点,速度提升27%,将该算法加速部署在无人车中的TX2设备上进行实时测试,其检测速度达到23FPS,能够有效提高小目标行人检测的精度及实时性。  相似文献   

14.
在真实场景下准确实时检测小目标交通标志对自动驾驶有重要意义,针对YOLOv5算法检测小目标交通标志精度低的问题,提出一种基于改进YOLOv5的小目标交通标志实时检测算法。借鉴跨阶段局部网络思想,在YOLOv5的空间金字塔池化上设置新的梯度路径,强化特征提取能力;在颈部特征融合中增设深、浅卷积特征的可学习自适应权重,更好地融合深层语义和浅层细节特征,提高小目标交通标志的检测精度。为验证所提算法的优越性,在TT100K交通标志数据集上进行了实验验证。实验结果表明所提算法在小目标交通标志上的平均精度均值(mean average precision,mAP)为77.3%,比原始YOLOv5提升了5.4个百分点,同时也优于SSD、RetinaNet、YOLOX、SwinTransformer等算法的检测结果。所提算法的运行速度为46.2 frame/s,满足检测实时性的要求。  相似文献   

15.
为了进一步提高多尺度目标检测的速度和精度,解决小目标检测易造成的漏检、错检以及重复检测等问题,提出一种基于改进YOLOv3的目标检测算法实现多尺度目标的自动检测。首先,在特征提取网络中对网络结构进行改进,在残差模块的空间维度中引入注意力机制,对小目标进行关注;然后,利用密集连接网络(DenseNet)充分融合网络浅层信息,并用深度可分离卷积替换主干网络中的普通卷积,减少模型的参数量,提升检测速率。在特征融合网络中,通过双向金字塔结构实现深浅层特征的双向融合,并将3尺度预测变为4尺度预测,提高了多尺度特征的学习能力;在损失函数方面,选取GIoU(Generalized Intersection over Union)作为损失函数,提高目标识别的精度,降低目标漏检率。实验结果表明,基于改进YOLOv3(You Only Look Once v3)的目标检测算法在Pascal VOC测试集上的平均准确率均值(mAP)达到83.26%,与原YOLOv3算法相比提升了5.89个百分点,检测速度达22.0 frame/s;在COCO数据集上,与原YOLOv3算法相比,基于改进YOLOv3的目标检测算法在mAP上提升了3.28个百分点;同时,在进行多尺度的目标检测中,算法的mAP有所提升,验证了基于改进YOLOv3的目标检测算法的有效性。  相似文献   

16.
杨毅  桑庆兵 《计算机工程》2022,48(12):288-295
织物瑕疵检测是纺织行业保证产品质量的重要环节,针对织物瑕疵检测中存在小目标瑕疵检测困难、不同种类瑕疵长宽比差异大、对实时性要求高等问题,提出一种新的轻量化织物瑕疵检测算法。以YOLOv4网络为基础,使用轻量化网络MobileNetv2为主干网络,有效减少模型参数总量与运算量,以满足实时性需求。在MobileNetv2的逆残差结构中加入CoordAttention注意力模块,将空间精确位置信息嵌入到通道注意力中,增强网络聚焦小目标特征的能力。使用自适应空间特征融合(ASFF)网络改进路径聚合网络(PANet),使模型通过学习获得多尺度特征图的融合权重,从而充分利用浅层特征与深层特征,提高算法对小目标瑕疵的检测精度。采用K-means++算法确定先验框尺寸,并用Focal Loss函数修改模型损失函数,降低正、负样本不平衡对检测结果的影响,解决不同种类瑕疵长宽比差异大及类别不平衡的问题。实验结果表明,相较于YOLOv4算法,所提算法的平均精度均值提高了2.3个百分点,检测速度提升了12 frame/s,能较好地应用于织物瑕疵检测。  相似文献   

17.
对于工业及建筑行业来说,工作人员在施工过程中佩戴安全帽是避免伤害的有效途径之一。针对这一现象,提出了一种改进YOLOv5的安全帽检测算法。该算法以YOLOv5s网络为基础,在YOLOv5s的主干网络中添加CA坐标注意力机制模块。在颈部网络结构中将特征融合模块中原有特征金字塔模块替换为加权双向特征金字塔(BiFPN)网络结构,实现高效的双向跨尺度连接和加权特征融合。在自制安全帽数据集中验证可知,改进的YOLOv5模型平均精度达到了92.15%,相比于YOLOv5模型,平均精度提高了1.05个百分点,实现了对密集目标和遮挡目标准确、高效的安全帽检测。  相似文献   

18.
针对金属表面缺陷检测中目标尺寸小和特征不清晰导致漏检的问题,提出一种改进YOLOv3的金属缺陷检测算法。在YOLOv3网络结构的基础上,将第11层浅层特征与网络深层特征融合,生成一个新的尺度为104×104特征图层,提取更多小缺陷目标特征。加入DIoU边框回归损失,为边界框提供移动方向以及更准确的位置信息,加快模型收敛。利用K-Means++聚类分析数据集上的先验框尺寸信息,筛选出最优的Anchor Box,使定位更加精准,降低网络损失。将改进后的算法与其他检测算法在NEU-DET数据集上进行检测性能对比。实验分析表明改进后的YOLOv3平均检测速率为31.6?frame/s;平均检测精度为67.64%,比YOLOv3提高了7.49个百分点,相较于Faster R-CNN等算法也有较大的检测精度优势。结论表明,改进后的YOLOv3可以使小缺陷目标的位置信息和精度更加准确。  相似文献   

19.
针对遥感图像内容丰富且复杂,具有目标种类多、密集分布和尺寸变化剧烈等特点,导致遥感图像中目标多尺度尤其是小目标难以检测的问题,提出一种基于自适应多尺度特征融合(AMFF)和注意力特征增强(AFE)的无锚框遥感图像目标检测算法.首先将主干网络提取的图像特征输入AMFF,自适应地融合多个尺度的特征,增加特征复用,提升网络的多尺度特征表达能力;然后将AMFF输出的特征输入到加入了AFE模块的检测头中,AFE通过结合多分支空洞卷积与注意力机制,在提高网络对目标尺度的泛化能力的同时增强有效特征信息;最后进行分类和回归,得到检测结果.在DIOR和NWPU VHR-10公开数据集上,与多种主流目标检测算法的实验结果表明,所提算法在2个数据集上的平均检测精度分别为72.4%和87.4%,较基线网络分别提升9.4和13.5个百分点,比次优结果分别提升6.3和1.7个百分点;平均检测精度高于主流目标检测算法,较基线网络的平均检测精度显著提高,能够更加准确地检测小尺度目标,同时有效地提升多尺度目标的检测精度.  相似文献   

20.
针对行人跌倒检测的应用场景复杂,原始YOLOv5的检测精度不高,特征融合不充分的问题,本文首先提出了一种新的特征金字塔(FPN)结构-自适应特征增强融合金字塔网络(AFEF-FPN)和特征增强融合模块(FFEM)来增加特征的表示以及融合深度.其次使用基于全局语义信息的上采样算子CARAFE代替Nearest Upsample来建模全局上采样信息,使用Alpha IoU Loss代替CIoU Loss来提高High IoU目标的损失和回归精度.最终本文网络YOLOv5(AFEF-FPN)在训练集上取得了98.62%mAP,在测试集上取得了96.21%mAP,相比于原始YOLOv5网络在训练集和测试集上分别提升了1.64%和2.86%.实验表明,本文网络在复杂场景下的目标检测效果优于原始YOLOv5及其他网络.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号