首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对YOLOv5目标检测模型训练时间长、检测精度偏低问题,提出一种目标图像组合算法,考虑必要的图像背景及图像覆盖对目标图像进行分割,设计减少图像失真的重组策略提高单张训练集图像内目标个数,降低模型训练时长。改进先验框生成策略,以绝对差值作为距离函数,对训练集目标边框的长和宽分别进行一维K-means聚类,提高先验框对训练集的适应度。提出多层并列卷积结构,对输入特征经过三层并列卷积后的输出进行融合,增强特征表征能力。以VOC2007和VOC2012训练集和验证集作为训练图像,采用目标图像组合算法,模型训练时间减少30%以上,改进先验框生成策略使先验框对训练集的适应度达到0.735。在VOC2007测试数据集上测试,改进YOLOv5模型平均准确率均值(mAP)由79.1%提升至80.3%。  相似文献   

2.
针对现有目标检测模型参数量大、检测速度慢,难以适应航空发动机孔探检测轻量化应用需求的问题,提出了基于YOLOv4目标检测算法的轻量化航空发动机损伤检测模型。设计了基于深度可分离卷积的轻量化特征融合结构,在YOLOv4的颈部结构(Neck)中,将普通卷积重构为逐通道卷积和逐点卷积的形式,有效减少了网络中的冗余参数;为进一步降低模型参数量,使用MobileNetv3作为特征提取网络。在减少参数量的同时,2种轻量化改进方法有效提高了模型的检测速度;在轻量化后的路径聚合网络(Path Aggregation Network, PANet)中加入卷积注意力模块(Convolutional Block Attention Module, CBAM),通过仅引入少量的参数来提高轻量化网络的损伤检测精度。实验结果表明,改进YOLOv4算法的平均精度均值(mean Average Precision, mAP)为89.82%,模型大小为73.29 MB,检测速度为37.3 FPS。与YOLOv4目标检测算法相比,改进YOLOv4算法以3.55%的mAP损失,使模型参数量降低了约2/3,检测速度提高了1....  相似文献   

3.
针对无人机航拍图像检测存在小目标检测准确率低以及检测模型计算量过大的问题,提出了一种基于改进YOLOv5的无人机小目标检测方法。首先,针对小目标存在漏检的问题,在YOLOv5的特征提取网络中引入了高效通道注意力机制(ECA)模块,提高对小目标的特征提取能力,进而提高小目标检测精度;其次,针对模型计算量大的问题,将模型中的CBL模块进行改进,把其中的普通卷积替换为Ghost卷积,减少模型参数和计算量,以便于在小型嵌入式设备部署;最后为了进一步优化和改进YOLOv5算法,采用加权损失函数,以充分学习图像特征。在DOTA数据集上进行测试,实验结果表明,改进的模型提升了小目标检测效果,其mAp为73.1%,比原算法提高了1.9%,速度达到了92 ms,可以准确地完成无人机航拍小目标检测任务,同时也满足实时性要求。  相似文献   

4.
基于卷积神经网络的雾霾环境视觉目标检测,通常直接利用无雾条件下清晰的数据集对网络进行训练,网络无法通过训练集获取雾霾图像下目标的特征权重配置,因而检测效果不佳.为了提高雾霾环境下目标检测效果,从数据集构建角度入手,提出了一种在无雾图像上生成带雾图像的方法.首先以KITTI-objection数据集作为原始无雾图像,利用改进的Monodepth无监督深度估计方法生成原始图像的深度图像.然后构造几何先验深度模板,以图像熵为权值与深度图进行融合,并根据大气散射模型,由深度图像得到雾图像.最后,采用基于二阶的Faster-RCNN和基于一阶的YOLOv4两种典型的目标检测架构,对原始数据集、雾数据集、混合数据集进行训练,并对室外自然雾霾场景数据集RESIDE-OTS进行检测.实验结果表明,使用混合数据集训练下的模型检测效果最好,在YOLOv4模型下mAP值提升了5.6%,在Faster R-CNN网络下mAP值提升了5.0%,从而有效提升了雾霾环境下卷积神经网络的目标识别能力.  相似文献   

5.
基于卷积神经网络的雾霾环境视觉目标检测,通常直接利用无雾条件下清晰的数据集对网络进行训练,网络无法通过训练集获取雾霾图像下目标的特征权重配置,因而检测效果不佳.为了提高雾霾环境下目标检测效果,从数据集构建角度入手,提出了一种在无雾图像上生成带雾图像的方法.首先以KITTI-objection数据集作为原始无雾图像,利用改进的Monodepth无监督深度估计方法生成原始图像的深度图像.然后构造几何先验深度模板,以图像熵为权值与深度图进行融合,并根据大气散射模型,由深度图像得到雾图像.最后,采用基于二阶的Faster-RCNN和基于一阶的YOLOv4两种典型的目标检测架构,对原始数据集、雾数据集、混合数据集进行训练,并对室外自然雾霾场景数据集RESIDE-OTS进行检测.实验结果表明,使用混合数据集训练下的模型检测效果最好,在YOLOv4模型下mAP值提升了5.6%,在Faster R-CNN网络下mAP值提升了5.0%,从而有效提升了雾霾环境下卷积神经网络的目标识别能力.  相似文献   

6.
基于卷积神经网络的雾霾环境视觉目标检测,通常直接利用无雾条件下清晰的数据集对网络进行训练,网络无法通过训练集获取雾霾图像下目标的特征权重配置,因而检测效果不佳。为了提高雾霾环境下目标检测效果,从数据集构建角度入手,提出了一种在无雾图像上生成带雾图像的方法。首先以KITTI-objection数据集作为原始无雾图像,利用改进的Monodepth无监督深度估计方法生成原始图像的深度图像。然后构造几何先验深度模板,以图像熵为权值与深度图进行融合,并根据大气散射模型,由深度图像得到雾图像。最后,采用基于二阶的Faster-RCNN和基于一阶的YOLOv4两种典型的目标检测架构,对原始数据集、雾数据集、混合数据集进行训练,并对室外自然雾霾场景数据集RESIDE-OTS进行检测。实验结果表明,使用混合数据集训练下的模型检测效果最好,在YOLOv4模型下mAP值提升了5.6%,在Faster R-CNN网络下mAP值提升了5.0%,从而有效提升了雾霾环境下卷积神经网络的目标识别能力。  相似文献   

7.
针对无人机影像中道路小目标漏检和目标之间遮挡导致的目标检测精度低、鲁棒性差等问题,提出一种多尺度融合卷积注意力模块(Convolutional block attention module, CBAM)的YOLOv5道路目标检测算法,即YOLOv5s-FCC。首先,引入小目标感知层对模型进行多尺度改进,增加一个针对小目标的YOLO检测头以提高网络对道路中小目标的特征提取能力。其次,利用CBAM融合空间和通道信息以增强网络中的重要信息,通过将CBAM引入Backbone主干网络不同位置,以获得CBAM最佳融合位置。最后,采用CIo U作为损失函数,以提高边界框预测所需的计算速度和精度。在自建的无人机道路目标数据集上进行训练,结果表明,相较YOLOv5算法,YOLOv5-FCC算法可将mAP50和mAP50-95分别提高2.0%和4.2%。在VisDrone数据集上也验证了YOLOv5-FCC算法的有效性,并建立了基于无人机的道路目标检测系统,实现道路目标的自动检测。  相似文献   

8.
文中针对目前输送带损伤检测大多是输送带撕裂且缺乏其他损伤类型研究的问题,提出一种改进YOLOv5的矿用输送带损伤检测方法。将SPD-Conv模块替换Conv模块中的卷积层,提升小目标的检测效果;在骨干特征网络与最后预测网络之前引入CBAM注意力机制,对重要的特征通道进行强化;最后,在YOLOv5的基础上引入高斯滤波器消除噪声干扰,提升算法目标检测效率。试验结果表明:改进后的YOLOv5目标检测网络在对输送带的撕裂、击穿、表面划伤、破损4种损伤类型的检测平均精度均值达92.3%,相较于YOLOv5算法提高了35.1%,检测速度达90帧/s,提高了20%,实现了对矿用输送带损伤的快速识别。  相似文献   

9.
针对现有卷积神经网络模型体积大、运算量高,导致电力巡检无人机检测速率与精度无法兼顾的问题,提出一种基于模型压缩的ED-YOLO网络实现无人机避障的目标检测算法。该目标检测算法以YOLOv4为基础,首先在主干网络中加入通道注意力机制,在不增加计算量前提下提高检测精度;其次在特征金字塔部分运用深度可分离卷积替换传统卷积,减少卷积计算量;最后利用模型压缩策略裁剪网络中冗余通道,减小模型体积并提高模型检测速度。在自主构建的9 600张电力巡检无人机飞行障碍的数据集进行测试,ED-YOLO与YOLOv4相比,其障碍物目标检测的平均精度均值只降低了1.4%,而模型体积减少了94.9%,浮点运算量减少了82.1%,预测速度提升了2.3倍。实验结果表明,对比多种其他现存方法,本文提出的基于模型压缩的ED-YOLO目标检测算法有着精度高、体积小和检测速度快的优势,满足电力巡检无机避障检测要求。  相似文献   

10.
针对现有带钢表面缺陷检测方法准确率低、特征泛化性不强、参数多、识别速度慢等缺陷,基于卷积神经网络,采用DenseNet网络的密集连接算法解决梯度消失和梯度爆炸问题,堆叠式空洞卷积扩大卷积核感受野,深度可分离卷积减少网络参数量,提出一种用于带钢表面陷检测的深度神经网络模型Ds-DenseNet算法。以NEU带钢表面缺陷数据集为基础缺陷样本,加入正样本,并对其进行数据增强操作,创建AUG-NEU数据集,本算法在AUG-NEU数据集上的测试精度高达99.38%,参数量为117958,仅占DenseNet121和ResNet50参数量的1.7%和0.5%,识别速度高达1.3ms/frame,分别是DenseNet121、ResNet50识别速度的2.3倍和2倍,完全可以满足带钢生产线实时检测的需求。  相似文献   

11.
针对机器人在抓取目标工件的过程中由于光线强度变化、图像环境复杂和拍摄设备移动等造成的工件识别精度低的问题,文章提出一种改进YOLOv5s的工件识别检测算法。首先,通过数据增强扩充数据集并进行预处理;其次,使用改进的k-means聚类算法重新生成更有效的预设锚框,缩短收敛路径;然后,在特征融合网络中添加CBAM注意力机制,有效抑制背景信息干扰,提高特征提取速度;此外,将特征融合模块中原有的特征金字塔结构替换成加权双向特征金字塔Bi-FPN结构,实现高效的加权特征融合和双向跨尺度连接,提高网络对不同尺度特征的融合效率;最后,通过采用α-IoU作为边界框回归损失函数,提高模型的定位效果。结果表明,改进后的YOLOv5s算法对工件检测的mAP值提升了6.03%,检测速度提升了13.7 fps,验证了改进算法的有效性。  相似文献   

12.
针对铸件检测存在精度不够高和易漏检、误检等问题,提出一种基于多尺度特征的YOLOv5铸件自动检测算法。该算法使用双目相机采集铸件图像,并构建铸件图像数据集;为提取更全面的铸件特征,采用多尺度特征融合模块,增加一个检测层检测不同尺度的铸件;为获取更多细节特征,在特征金字塔网络中嵌入卷积注意力机制(CBAM),以提高铸件图像关键特征的提取能力;同时用Hardswish替换卷积层中的SiLU激活函数来减少模型参数量。实验结果表明,该算法检测m AP值达到了96.5%,较原YOLOv5算法提升了2.6%,能实现铸件自动检测对检测精度及实时性的要求。  相似文献   

13.
为了提高氧压表的检测效率,同时完成多块氧压表的识别,利用改进后的YOLOv3目标检测算法对工业上的氧压表进行检测。首先将原YOLOv3特征提取网络调换为EfficientNet网络,提高算法的特征提取能力;其次通过制作的加强型数据集,实现仪表的特征增强;最后,利用K-means算法对数据集进行聚类,得到合适的Anchor box,提高仪表定位精度。实验结果表明,改进后的YOLOv3算法可同时完成3块氧压表的识别,且识别精度高,降低了氧压表的漏检率,并且在平均精度上达到了96.73mAP,相比于未改进的YOLOv3算法提高了7.5%,检测速度为54.2FPS,比其他目标检测算法具有更好的检测性能。  相似文献   

14.
为了检测传输线图像中的绝缘体缺陷,采用SSD(Single Shot MultiBox Detector)卷积神经网络方法检测图像目标。首先,扩展了数据集,采用裁剪和旋转等预处理,提高了网络检测的泛化能力,实现了图像的标注。其次,以ResNet网络替代SSD结构中原有的VGGNet,从而使网络的特征提取能力增强。最后,通过卷积神经网络检测出的绝缘子位置和绝缘子缺陷位置进行重叠面积计算,确定绝缘子缺陷位置。该方法在Caffe深度学习框架下实现了数据预处理,网络模型训练和目标检测的功能,并且实现了对当前自制数据高检测精度和高置信度。  相似文献   

15.
为了解决零件表面众多形态复杂的微小缺陷检测效率低与检测精度不高的问题,选择以YOLOv7-tiny网络为基础架构进行改进,提出了BCGS-YOLOv7 tiny检测网络。特征提取阶段增加CBAM注意力机制,并用SPD-Conv下采样层代替跨步卷积和最大池化层,增强对小目标的特征提取能力;特征融合阶段将路径聚合特征金字塔(PAFPN)网络替换为BPANet网络结构,并引入gnCSP模块和SPD-Conv下采样层,改善小目标的特征融合能力。在重组的GC10-DET数据集上实验结果表明,BCGS-YOLOv7 tiny检测网络平均精度(mAP)达到91.6%,比原YOLOv7-tiny网络提高了6.0%。同时对零件表面各类微小缺陷的检测精度均有大幅提升。  相似文献   

16.
施工现场光照多变、背景复杂、施工人员形态多样,给安全帽佩戴情况检测带来很大的困难。针对传统检测方法准确率低、鲁棒性差的问题,本文提出了一种基于深度学习的安全帽佩戴情况检测方法。该方法以YOLOv2目标检测方法为基础,对其网络结构进行了改进。首先借鉴了密集连接网络思想,在原网络中加入了密集块,实现了多层特征的融合以及浅层低语义信息与深层高语义信息的兼顾,提高了网络对于小目标检测的敏感性;然后,利用MobileNet中的轻量化网络结构对网络进行压缩,使模型的大小缩减为原来的十分之一,增加了模型的可用性。采用自制的HelmetWear数据集对改进后的网络模型进行训练和测试,并将该模型与原YOLOv2和最新的YOLOv3进行了对比,结果显示:该模型的检测准确率为87.42%,稍逊色于YOLOv3,但是其检测速度提升显著,比YOLOv2和YOLOv3分别提高了37%和215%,可达148frame/s。实验表明,改进后的网络模型能在保证检测准确率的同时,有效减小参数量,显著提升检测速度。  相似文献   

17.
远距离行人小目标成像像素少、缺乏纹理信息,深度卷积神经网络难以提取小目标细粒度特征,难以准确识别与检测。本文提出一种远距离行人小目标检测方法。首先,在YOLOv4的基础上引入浅层特征改进特征金字塔,提取行人小目标细粒度特征,提出引力模型特征自适应融合方法,增加多层次语义信息之间的关联度,防止小目标特征信息流失。然后,采用增强型超分辨率生成对抗网络增加行人小目标特征数量,提高行人小目标检测准确率。最后,选取图像像素中占比范围为0.004%~0.026%的行人小目标建立试验数据集,通过与Faster RCNN、ION、YOLOv4对比实验验证。结果表明,本文方法mAP0.5提高了25.2%、26.3%、11.9%,FPS达到24,研究成果在远距离安防监测监控领域具有重要应用价值。  相似文献   

18.
卷积神经网络在视觉图像检测的研究进展   总被引:1,自引:0,他引:1  
视觉图像检测在机器视觉领域有着重要的研究意义和应用价值。近年来,卷积神经网络的发展带动了视觉图像检测领域的进步。大量新理论、新方法被应用于卷积神经网络,提高了网络对特征的表达能力,降低了网络的复杂性,增强了网络的性能。研究阐述了卷积神经网络的基本构成,从卷积层,池化层,激活函数,网络正则化和网络优化等方面总结了卷积神经网络近年来的改进方法,梳理了卷积神经网络在视觉图像检测领域的应用,总结了卷积神经网络在视觉图像检测领域的优点,并展望了未来的研究方向。  相似文献   

19.
为了提高工业现场等复杂场景下的小目标检测的准确率,降低工业现场的安全事故发生率,基于 YOLOv3 提出了一种改进多尺度特征融合方法。该方法增加了Inception _ shortcut 模块,优化网络的输出宽度,使用工业现场的监控视频作为数据集以及利用 k-means 算法对检测目标重新聚类,引入了 PANet 多尺度特征融合结构,精简了 YOLOv3 的网络检测输出层。在创建工业现场安全帽、安全绳数据集 FHPD 、FSRPD 以及 PASCAL VOC2007 数据集上的实验结果表明,改进算法的 mAP 比原始 YOLOv3 提高了许多。改进的多尺度特征网络融合增加了参数,但检测速度仍满足算法的实时性要求。  相似文献   

20.
瑚琦  卞亚林  王兵 《光学仪器》2022,44(5):14-19
小尺寸的物体由于其在图像中分辨率相对较低的原因,在检测任务中容易被丢失和误判。针对目前目标检测算法对小尺寸目标检测精确度远低于其他尺寸目标检测精度的问题加以改进,将小尺寸目标特征增强融入特征金字塔结构。利用多尺度特征融合的特征增强能力丰富小尺寸目标特征层的特征信息,从而使小尺寸目标检测精准度得到提升。将改进特征金字塔结构应用于YOLOv3网络,实验对比研究表明,小尺寸目标检测精准度可以达到0.179,较原网络提升了22.6%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号