共查询到20条相似文献,搜索用时 0 毫秒
1.
在化工厂区的油罐车装卸区,防止油罐车静电的产生和危害是避免加油车燃爆的重要手段,通过静电接地线可以将油罐车感应的静电导走,避免与外界物质产生跳火.如何确保接地线在装卸车流程中正确安装不会被意外拆卸或提前拆卸是厂区急需解决的问题.为确保在防爆区内用防爆摄像头的情况下能够对实时画面进行实时检测,针对接地线连接角度不一,拉伸后变细等特点提出将深度学习YOLOv5目标检测算法通过引入自注意力机制CotNet的方法.在自制的接地线数据集上进行算法的检测速度和检测精度对比,实验结果表明,改进后的YOLOv5算法在速度稍有降低的情况下提高了5%的检测精度,可以满足现场接地线检测需求. 相似文献
2.
为进一步提高安检X射线图像中违禁品的检测精度与速度,提出一种改进YOLOv5的X射线安检图像违禁品目标检测算法。具体改进的内容:一是加入了掩码自注意力机制模块有效地捕捉全局上下文信息,增强了特征信息的表达能力;二是引入Quality Focal Loss损失函数有效缓解了类别不均衡问题,提高了对目标的定位精度。实验证明改进后的网络模型在安检数据集上得到了提升,满足安检检测需求。 相似文献
3.
针对无人机飞行时与目标距离较远,被拍摄的目标大小有明显的差异且存在被物体遮挡等问题,提出一种基于YOLOv5s的无人机视角下小目标检测改进算法BD-YOLO。在特征融合网络中采用双层路由注意力(bi-level routing attention,BRA),其以动态稀疏的方式过滤特征图中最不相关的特征,保留部分重要区域特征,从而提高模型特征提取的能力;由于特征图经过多次下采样后会丢失大量位置信息和特征信息,因此采用一种结合注意力机制的动态目标检测头DyHead(dynamic head),该检测头通过尺度感知、空间感知和任务感知的三者统一,以实现更强的特征表达能力;使用Focal-EIoU损失函数,来解决YOLOv5s中CIoU Loss计算回归结果不准确的问题,从而提高模型对小型目标的检测精度。实验结果表明,在VisDrone2019-DET数据集上,BD-YOLO模型较YOLOv5s模型在平均精度(mAP@0.5)指标上提高了0.062,对比其他主流模型对于小目标的检测都有更好的效果。 相似文献
4.
5.
无人机在情报、侦察和监视领域,目标自动检测可为侦察等任务提供准确的目标位置及类别,为地面指挥人员提供详尽的目标信息。针对无人机图像背景复杂、分辨率高、目标尺度差异大等特点,提出一种改进YOLOv5s目标检测算法。将压缩-激励模块引入到YOLOv5s算法中,提高网络的特征提取能力;引入双锥台特征融合(bifrustum feature fusion,BFF)结构,提高算法对较小目标的检测检测精度;将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高定位精度。实验结果表明,改进后的YOLOv5s取得了86.3%的平均均值精度(mAP),比原算法YOLOv5s提高了16.8个百分点,在复杂背景下仍能显著提升无人机图像目标检测性能。 相似文献
6.
针对遥感图像中背景复杂度高、目标尺寸多样和小目标存在过多所导致的目标检测精度较低的问题,提出一种改进YOLOv5的遥感图像目标检测算法。该算法在主干网络引入通道-全局注意力机制(CGAM)以增强对不同尺度目标的特征提取能力和抑制冗余信息的干扰。引入密集上采样卷积(DUC)模块扩张低分辨率卷积特征图,有效增强不同卷积特征图的融合效果。将改进算法应用于公开遥感数据集RSOD中,改进YOLOv5算法平均精度AP值达到78.5%,较原算法提升了3.1个百分点。实验结果证明,改进后的算法能有效提高遥感图像目标检测精度。 相似文献
7.
目前基于无人机航拍的目标检测技术广泛应用于军事和民用领域,但因其存在成像距离远、高空拍摄图像模糊和目标信息占比小等问题,目标检测准确率不高。针对这一问题,提出一种基于YOLOv5的改进算法。该算法首先在数据增强方面对原始图像进行加雾处理,提高其在雾天的鲁棒性;其次通过融合CBAM模块,来增强不同通道和空间的重要性;再者将原算法中的SPP更换为ASPP,以减小池化操作对特征信息的影响;最后在FPN结构中增加一层检测头,用于更细粒度的检测目标。以YOLOv5s为Baseline,实验表明,改进后的算法比原算法的mAP_0.5提高了6.9%,可以有效应用于航拍小目标的检测。 相似文献
8.
针对复杂环境中,烟雾火焰检测存在精度低,小目标检测困难等问题,提出一种改进的基于YOLOv5s的小目标烟雾火焰检测算法。基于公开数据集自建了9 981张不相似的烟雾火焰图像数据集,解决现有数据集的限制,提高了模型的训练效率与泛化能力;在网络中添加3-D注意力机制SimAM,增加算法的特征提取能力,而且没有增加额外的参数;修改网络中的Neck结构,将三尺度检测改为四尺度检测,并结合了加权双向特征金字塔网络(BiFPN)结构,对特征融合过程进行修改,提高小目标的检测能力与特征融合能力;通过遗传算法来优化网络中的部分超参数,进一步模型的检测能力。实验结果表明,改进后的算法比原始YOLOv5s算法平均检测精度提高了7.2%,同时对小目标检测精度更高,误检漏检等情况减少。 相似文献
9.
YOLOv5是目前单阶段目标检测性能较好的算法,但对目标边界回归的精确度不高,难以适用对预测框交并比要求较高的场景。基于YOLOv5算法,提出一种对硬件要求低、模型收敛速度快、目标框准确率高的新模型YOLO-G。改进特征金字塔结构(FPN),采用跨层级联的方式融合更多的特征,一定程度上防止了浅层语义信息的丢失,同时加深金字塔深度,对应增加检测层,使各种锚框的铺设间隔更加合理;其次把并行模式的注意力机制融入到网络结构中,赋予空间注意力模块和通道注意力模块相同的优先级,以加权融合的方式提取注意力信息,使网络可根据对空间和通道注意力的关注程度得到混合域注意力;通过降低网络的参数量和计算量对网络进行轻量化处理,防止因模型复杂度提升造成实时性能的损失。使用PASCAL VOC的2007、2012两个数据集来验证算法的有效性,YOLO-G比YOLOv5s的参数量减少了4.7%,计算量减少了47.9%,而mAP@0.5提高了3.1个百分点,mAP@0.5:0.95提高了5.6个百分点。 相似文献
10.
在自动驾驶应用场景下,将YOLOv5应用于目标检测中,性能较之前版本有明显的提升,但在高运行速度情况下检测精度仍不够高,本文提出一种基于改进YOLOv5的车辆端目标检测方法.为解决训练不同数据集时需手动设计初始锚框大小,引入自适应锚框计算.在主干网络(backbone)添加压缩与激励模块(squeeze and excitation,SE),筛选针对通道的特征信息,提升特征表达能力.为了提升检测不同大小物体时的精度,将注意力机制与检测网络融合,把卷积注意力模块(convolutional block attention module, CBAM)与Neck部分融合,使模型在检测不同大小的物体时能关注重要的特征,提升特征提取能力.在主干网络中使用空间金字塔池化SPP模块,使得模型输入可以输入任意图像高宽比和大小.在激活函数方面,进行卷积操作后使用Hardswish激活函数,应用于整个网络模型.在损失函数方面,使用CIoU作为检测框回归的损失函数,改善定位精度低和训练过程中目标检测框回归速度慢的问题.实验结果表明,改进后的检测模型在KITTI 2D数据集上测试,目标检测的精确率(preci... 相似文献
11.
针对交通场景中由光照、遮挡、目标小以及背景复杂等因素导致目标检测精度低,易出现漏检和误检问题的情况,提出了一种基于YOLOv7的交通目标检测算法;该算法在主干网络中融入多头注意力机制,以增强网络特征学习能力,从而更好地捕获数据和特征内部的相关性;在YOLOv7颈部网络引入协调注意力模块(CA),将位置信息嵌入到注意力机制中,忽略无关信息的干扰,以增强网络的特征提取能力;增加一个多尺度检测网络,以增强模型对不同尺度目标的检测能力;将CIoU损失函数更改为SIoU函数,以减少模型收敛不稳定问题,提高模型的鲁棒性;实验结果表明,改进的算法在BDD100K公开数据集上的检测精度和速度分别达到了59.8% mAP和96.2 FPS,相比原算法检测精度提高了2.5%;这表明改进的算法在满足实时性要求的同时,具备良好的检测精度,适用于复杂情况下的交通目标检测任务。 相似文献
12.
针对目前应用到织物疵点检测的网络模型中存在的两阶段算法检测速度慢、一阶段算法检测精度低的问题,提出了一种改进YOLOv5的织物疵点检测算法。针对织物疵点大小不一的问题,对K-mean算法的聚类距离标准进行修改,重新计算先验框大小;对网络Neck层标准卷积(standard convolution,SC)进行改进,将深度分离卷积(depth separation convolution,DSC)与标准卷积结合,减少网络层参数量,同时保持网络的特征提取能力;在特征融合阶段引入坐标注意力机制(coordinate attention,CA),使网络能够捕捉各通道之间联系的同时保留目标的精确定位信息,加强网络的特征提取和定位能力;使用加权双向特征金字塔网络(bidirectional feature pyramid network,BiFPN)中的方法,对特征金字塔模块进行修改,实现简单快速的多尺度特征融合。在数据集上进行训练,结果表明,改进的YOLOv5模型的mAP值可达到97.4%,相比于原网络精度提高了2.8个百分点,满足了织物疵点检测的要求。 相似文献
13.
针对机场跑道异物(foreign object debris,FOD)在图像中目标占比小,特征不明显,经常导致误检、漏检的问题,提出一种改进YOLOv5的FOD目标检测算法。改进多尺度融合与检测部分,融合高分辨率特征图增强小目标特征表达,移除大目标检测层以减少网络推理计算量;引入轻量高效的卷积注意力模块(CBAM),从空间与通道两个维度提升模型关注目标特征的能力;在特征融合阶段采用RepVGG模块,提高模型特征融合能力的同时提高了检测精度;采用SIoU Loss作为损失函数,提升了边框回归的速度与精度。在自制FOD数据集上进行对比实验,结果表明:该方法在满足实时性的条件下,实现了95.01%的mAP50、55.79%的mAP50:95,比原算法YOLOv5分别提高了2.78、3.28个百分点,有效解决了传统FOD检测误检、漏检问题,同时与主流目标检测算法相比,提出的改进算法更适用于FOD检测任务。 相似文献
14.
针对在实际交通场景中对车辆目标检测算法有占用资源小、保证实时性和准确率高的要求,提出了一种基于改进YOLOv5s的车辆目标检测算法。首先,引入GhostNet改进YOLOv5s的Backbone,降低了网络的计算量,提高了检测速度;其次,融合CBAM注意力机制,改善在各种天气、光照情况下难以被准确检测的问题;然后,使用Soft-NMS代替NMS,减少了交通拥堵等情况造成的漏检问题;最后,对改进后的算法进行了对比消融实验,验证其性能,再部署到嵌入式设备端测试。根据实验结果,改进算法在保证较高的平均精度的情况下,模型资源占用降低了34.76%,在嵌入式平台上的帧率可以达到29 frame/s,可以达到实际应用的要求。 相似文献
15.
针对目前目标检测模型结构复杂、计算量大、检测准确率低等问题,提出在工业场景下基于改进型YOLOv5的安全帽佩戴算法。在主干网络引入轻量型网络ShuffleNetv2,保留Focus结构和ShuffleNetv2共同组成主干网络,降低网络的计算量和参数量;在C3模块中引入Swin Transformer Block,得到C3STB模块,替换Neck部分原有的C3模块;设计了CBAM_H注意力机制,并将其嵌入Neck网络中,获取全局上下文信息,提高模型检测准确率。自建数据集并进行实验,实验结果表明,改进后的YOLOv5模型的参数量由6.14×106压缩到8.9×105,计算量由1.64×1010压缩到6.2×109,mAP由0.899上升到0.908,优于原模型性能。 相似文献
16.
在自动驾驶领域, 由于道路背景复杂以及小目标信息缺失, 现有目标检测算法存在检测精度低的问题. 由于车载摄像头视角较为固定, 道路上的目标在图像空间中的分布具有一定的规律, 可以为自动驾驶汽车进行目标检测提供更为丰富的信息. 因此, 提出一种改进YOLOv5s的空间特征增强网络(SE-YOLOv5s). 在YOLOv5s的颈部网络中添加位置注意力模块(location attention module, LAM), 该模块能够根据道路目标在图像中的分布特征进行加权, 增强网络对目标类别位置分布的感知和定位能力. 设计一种小目标增强模块(small target enhancement module, STEM), 将浅层特征和深层特征进行融合, 可以获得更丰富的小目标语义信息和空间细节信息, 提高小目标检测效果. 实验结果表明, 改进模型对不同尺度目标检测精度均有所提高, APS提高2.8%, APM提高2.5%, APL提高2%. 相似文献
17.
为解决复杂环境下道路目标检测任务中由于目标尺度变化多样、密集遮挡以及光照不均匀等导致的漏检问题,提出了一种基于YOLOv5的道路目标检测改进方法 CTC-YOLO(contextual transformer and convolutional block attention module based on YOLOv5)。针对小目标,改进网络检测头结构,增加多尺度目标检测层,提高小目标检测精度。为了充分利用输入的上下文信息,在特征提取部分引入上下文变换模块(contextual transformer networks,CoTNet),设计了CoT3模块,引导动态注意力矩阵学习,提高视觉表征能力。在Neck部分的C3模块集成卷积块注意力模型(convolutional block attention module,CBAM),以在各种复杂的场景中找到注意力区域。为进一步验证CTC-YOLO方法,采取了一些有用的策略,如模型集成位置选择和对比其他注意力机制。实验结果表明,在公开数据集KITTI、Cityscapes以及BDD100K上mAP@0.5分别达到89.6%、46.1%和57.... 相似文献
18.
为了检测机场行李运输系统中轮对存在的裂纹,提出了一种基于YOLOv5的机场行李运输系统轮对裂纹检测方法。该方法针对裂纹细小、密集等特点采取了以下措施:在YOLOv5网络的 Head 部分使用SIoU替换了原有的CIoU;在Backbone部分加入了SE注意力机制;在Neck部分引入了Swin-Transformer模块;在整个YOLOv5 网络中使用SPD-Conv替代了传统的Conv卷积模块;在图像的预处理方面,使用了图像分割与子图反向拼接技术。通过这些改进,有效地改善了YOLOv5对于细小、密集裂纹的特征提取能力,相较于传统的 YOLOv5 算法,裂纹检测的能力得到了有效提升。 相似文献
19.
现有的YOLOv5模型无法精确检测出进入复杂施工现场内的人员佩戴安全帽问题,本文提出了一种基于YOLOv5的安全帽检测算法。模型的具体改进方法为:在主干网络中新增了一个小目标层P2和3-D注意力机制SimAM,提升算法的特征提取能力便于能够更容易检测出小目标;将边框损失函数CIoU_Loss改为SIo U_Loss,以提升对小目标检测的训练速度与精度,从而得到一种新的安全帽佩戴检测模型。实验结果显示,修改后的YOLOv5s算法大大提高了复杂工程现场安全帽检测的准确率,较原有的算法提高了1.4个百分点,mAP值达到了95.5%。 相似文献
20.
近年来针对合成孔径雷达(synthetic aperture radar,SAR)图像中缺乏颜色和纹理细节的舰船检测技术在深度学习领域中得到了广泛研究,利用深度学习技术可以有效避免传统的复杂特征设计,并且检测精度得到极大改善.针对舰船目标检测框具有高长宽比和密集排列问题,提出一种基于改进YOLOv5的目标检测方法.该方... 相似文献