首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 437 毫秒
1.
针对yolov3算法应用于车辆类型检测中速度较快但精度相对较低的问题,提出在原始yolov3算法中使用GIoU代替均方差损失函数作为边界框回归损失函数,在边界框置信度损失函数中融入focal loss损失函数两种损失函数改进方法。实验结果表明改进后的yolov3模型在保持速度不变的情况下精度得到显著提升,在交通车型数据集中mAP值相比原始yolv3模型上升了3.62%,具有一定优势。  相似文献   

2.
针对目前主流的目标检测算法存在模型参数过大、不能很好地移植到移动设备端之中应用于辅助驾驶这一问题,本文提出了一种改进YOLOv5s的目标检测算法。首先,将YOLOv5s算法的主干网络CSPDarknet替换为轻量化网络模型MobileNet-V3,解决了网络模型较大、参数较多的问题,减少了网络的深度并提升了数据推断速度;其次,对特征提取网络采用加权双向特征金字塔结构Bi-FPN加强特征提取,融合多尺度特征进而扩大感受野;最后,对损失函数进行优化,使用CIoU为边界框回归损失函数,改善模型原始GIoU收敛速度较慢问题,使预测框更加符合于真实框,同时降低网络训练难度。实验结果表明,改进后算法在KITTI数据集上的mAP相较于YOLOv5s、SSD、YOLOv3、YOLOv4_tiny分别提升了4.4、15.7、12.4、19.6,模型大小相较于YOLOv5s与轻量级网络YOLOv4_tiny分别减少了32.4 MB和21 MB,同时检测速度分别提升了17.6%与43%。本文改进后的算法满足模型小、精确度高的要求,为辅助驾驶中道路目标检测提升检测速度与精度提供了一种解决方案。  相似文献   

3.
针对传统目标检测算法未考虑物体角度信息而出现的漏检、错检问题,提出了一种基于YOLOv5s的改进算法。在原始YOLOv5s的基础上,首先结合环形平滑标签技术(CSL)及对损失函数的改进,让网络有了对角度预测的能力;其次增加目标检测层提升了网络对小目标检测的能力,接着融合CBAM注意力机制让网络重点关注对有用信息的学习;最后采用迁移学习的策略初始化网络各层参数。为了验证算法的有效性,自制了标签数据集LDS并做了算法对比试验,实验结果表明,在LDS数据集上,改进后的YOLOv5s算法检测精度达89.94%,相较于原始网络,在检测速度没有下降的基础上检测精度提升了4.80%。  相似文献   

4.
针对无人机视角下目标尺度差异大、检测场景复杂、目标小且密集而导致的检测精度不高的问题,提出了一种基于改进YOLOv5n的实时目标检测算法。首先,通过引入轻量通道注意力(ECA)模块提高卷积神经网络对特征图内有效信息的提取能力;其次,在特征金字塔网络输出端后,加入自适应空间特征融合(ASFF)模块,提高不同尺度特征图的识别精度;再次,使用EIoU损失函数计算预测框和目标框的差异值,加快收敛速度并提高检测精度;最后,改进YOLOv5n的检测头,优化模型对小目标的检测性能。在VisDrone数据集上训练测试,相比于基础的YOLOv5n模型,在640×640分辨率下,改进后模型的类平均精度(mAP50)提高了6.1个百分点;在1504×1504分辨率下类平均精度(mAP50)提高了7.1个百分点;同时,改进后的模型检测速度在硬件上可达22帧/s以上。该算法模型在精度提高的同时保证了足够高的检测速度,更适用于无人机的小目标实时检测。  相似文献   

5.
为提升YOLOv5算法对遥感图像密集目标的检测精度并改善漏检问题,提出了一种改进的YOLOv5遥感目标检测算法。改进方法首先采用7*7卷积模块替换骨干网络中Focus模块以增大模型感受野;其次,在保证与原模块效果相同的情况下使用SPPF以提升检测速度;最后,引入SIOU损失函数,利用边界框回归之间的向量角度来重新定义损失函数,有效提高了检测的准确性。实验结果表明,针对公开的NWPU VHR-10遥感数据集,所提改进算法在保持与原算法相同检测速度的情况下,检测精度提高了3.5%。  相似文献   

6.
针对近年来鸟类啄食对农业生产带来的损失,通过实时检测鸟类优化传统驱鸟器开关策略,提出了一种基于YOLOv3检测鸟类的目标检测算法。该方法对YOLOv3网络中特征融合进行改进,将SE模块嵌入进主干网络的Darknet53网络中,关注不同通道特征的重要程度。采用自适应空间特征融合(ASFF)增强网络中特征金字塔网络(FPN)的特征融合,提升各尺度的检测能力。引入CIOU边界框回归损失函数,将预测框和目标框在有重叠甚至包含等情况考虑进去,使目标框回归变得更加准确和稳定。改进后的YOLOv3模型在自制鸟类数据集上的精度均值(AP)达到96.65%,单张图像检测耗时仅为0.058 s,相比于原YOLOv3模型在检测速度变化不大的情况下AP提高了2.54百分点。该改进方法能达到很好的实时性和更佳的检测精度,对农田防治鸟害优化驱鸟器开关策略提供依据。  相似文献   

7.
针对传统算法依赖于对红外船舶目标与环境背景的精确分离和信息提取,难以满足复杂背景和噪声等干扰环境下的船舶目标检测需求,提出一种基于改进YOLOv5的红外船舶目标检测算法。在YOLOv5网络中添加Reasoning层,以一种新的提取图像区域间语义关系来预测边界框和类概率的体系结构,提高模型的检测精度,同时对YOLOv5目标检测网络的损失函数进行改进,从而达到进一步提高模型准确率的目的。验证结果表明,改进后的YOLOv5算法训练出来的模型,检测精确率和速度与实验列出的几种目标检测算法相比均有明显提升,其中平均精度均值(mAP)可达94.65%。该模型经过验证,既能满足检测的实时性要求,又能保证高精度。  相似文献   

8.
损失函数对于目标检测任务的检测精度和模型收敛速度具有重要作用,而损失函数中的边界框损失函数是影响检测结果和模型收敛速度的重要因素。针对传统模型定位精度低和训练时模型收敛慢的问题,本文在CIoU边界框损失函数的基础上提出一种改进的边界框损失函数,解决了CIoU损失函数求导过程中由边界框宽高比带来的梯度爆炸问题和模型提前退化的问题,并且引入重叠区域与目标框的宽高关系和中心点之间的归一化距离作为附加的惩罚项,提高了模型的检测精度和收敛速度,这种损失函数称为BCIoU(Better CIoU)。在PASACL VOC 2007数据集上的实验结果表明,改进的BCIoU边界框损失函数在YOLOv3网络下相对于IoU损失的mAP50指标相对提升了2.09%,AP指标相对提升了6.88%;相对于CIoU损失的mAP50指标相对提升了1.64%,AP指标相对提升了5.35%。模型的收敛速度也有一定程度的提升。本文提出的BCIoU损失函数提高了模型的检测精度和模型收敛速度,并且可以很方便地纳入到当前目标检测算法中。  相似文献   

9.
无人机在军事情报、航拍检测等领域能够提供目标相关的图像信息,为处理任务提供目标信息。针对无人机图像背景复杂、检测目标小、可提取特征少等问题,提出基于YOLOv5s的改进无人机图像识别算法。首先,结合CotNet模块对网络结构进行优化,提升模型自学习能力并增强识别精度;其次,对颈部网络进行改进,通过跨层链接和提高特征图分辨率更好地利用浅层特征图中包含的丰富信息来定位目标,并且在检测头部分采用解耦检测头,减少预测过程中定位与分类任务对于特征信息的冲突;最后,为了提高收敛速度和模型精度,在CIoU和EIoU损失函数的基础上对损失函数的宽高纵横比进行优化。在公开数据集VisDrone测试集上进行测试,所提算法相比原始YOLOv5s算法的mAP50与mAP50∶95分别提升了6.1与2.9个百分点,实验结果表明,所提模型能够有效提升无人机图像识别的准确率。  相似文献   

10.
YOLOv3算法在单一物体目标检测时使用Darknet53作为主干,网络出现冗余现象,导致参数过多,检测速度变慢,传统的边界框损失函数影响检测定位准确性。针对这一问题,文中提出了改进YOLOv3算法的行人检测方法。通过构造以Darknet19为主干网络多尺度融合的新型网络,加快训练速度和检测速度,还通过引入广义交并比损失函数来提高检测精确度。实验结果表明,在行人检测数据集如INRIA行人数据集中,相比于原始算法,文中所提算法的精确度提高了5%。和Faster R-CNN相比,在保证准确率的情况下,采用文中算法使单张图片的检测速度达到了每张0.015 s。  相似文献   

11.
随着现代化战争的技术升级,机载红外探测领域对更快更远更准地发现目标的需求日益强烈。为满足机载环境下对红外弱小目标高精度高帧率的检测,本文提出了一种基于YOLOv7改进的目标检测算法,以YOLOv7目标检测算法为基础,进行了修改网络结构和加深卷积层数来使特征提取更多的小目标信息特征;并对骨干网络获取的特征层引入注意力机制来提高神经网络对小目标的感知能力以及提高小目标所在区域的权重占比;使用EIOU损失函数替换原本的CIOU损失函数,提高了收敛速度和定位精度。实验结果表明,相较于原算法YOLOv7,在极小损失帧率的情况下,改进后的算法mAP可以达到9849,相较原始算法提升了124,有助于提升对机载红外弱小目标的检测准确率。  相似文献   

12.
真实遥感图像中,目标呈现任意方向分布的特点,原始YOLOv5网络存在难以准确表达目标的位置和范围、以及检测速度一般的问题。针对上述问题,提出一种遥感影像旋转目标检测模型YOLOv5-Left-Rotation,首先利用Transformer自注意力机制,让模型更加注意感兴趣的目标,并且在图像预处理过程中采用Mosaic数据增强,对后处理过程使用改进后的非极大值抑制算法Non-Maximum Suppression。其次,引入角度损失函数,增加网络的输出维度,得到旋转矩形的预测框。最后,在网络模型的浅层阶段,增加滑动窗口分支,来提高大尺寸遥感稀疏目标的检测效率。实验数据集为自制飞机数据集CASIA-plane78和公开的舰船数据集HRSC2016,结果表明,改进旋转目标检测算法相比于原始YOLOv5网络的平均精度提升了3.175%,在吉林一号某星推扫出的大尺寸多光谱影像中推理速度提升了13.6%,能够尽可能地减少冗余背景信息,更加准确检测出光学遥感图像中排列密集、分布无规律的感兴趣目标的区域。  相似文献   

13.
针对现有关于车载限速牌识别算法所存在的检测速度慢、准确率低、无法应用于嵌入式系统等问题,提出了一种基于网络的实时限速牌识别算法。该算法基于SSD_MobileNet_v1网络框架进行改进,对原来的网络进行架构裁剪以去除冗余结构;同时引入了特征金字塔网络结构,并使用focal loss作为网络训练的分类损失。实验表明,提出的识别算法准确率可达88.11%,虽然略低于目前主流目标检测算法的检测精度,但是网络的每秒帧率(Frame per Second,FPS)可以达到35.13,拥有较快的检测速度,而权重文件只有24 MB 。因此,与其他算法相比,该算法不仅适合小型的嵌入式人工智能(Artifical Intelligence,AI)设备,而且更贴近真实车载场景下的识别。  相似文献   

14.
代牮  赵旭  李连鹏  刘文  褚昕悦 《红外技术》2022,44(5):504-512
针对传统算法依赖于对红外目标与环境背景的精确分离和信息提取,难以满足复杂背景和噪声等干扰因素下的检测需求。论文提出一种基于改进YOLOv5(You Only Look Once)的复杂背景红外弱小目标检测算法。该算法在YOLOv5基础上,添加注意力机制提高算法的特征提取能力和检测效率,同时改进原YOLOv5目标检测网络的损失函数和预测框的筛选方式提高算法对红外弱小目标检测的准确率。实验选取了来自不同复杂背景的7组红外弱小目标数据集,将这些图像数据集进行标注并训练,得到红外弱小目标检测模型,然后从模型训练结果和目标检测结果的角度评估算法和模型的正确性。实验结果表明:改进的YOLOv5算法训练出来的模型,检测准确性和检测速度对比实验列出的几种目标检测算法均有明显的提升,平均精度均值(mean Average Precision,mAP)可达99.6%以上,在不同复杂背景下均可有效检测出红外弱小目标,且漏警率、虚警率低。  相似文献   

15.
柳想成  韩隆  郑毅  李长桢  刘爽  金梦轩 《激光与红外》2023,53(11):1712-1718
在激光模拟训练中,具有智能打击功能的靶标装置可以更加逼真地模拟实战对抗过程,满足智能化军事训练需求。但目前大多数靶标不具备智能打击或反击功能,靶标仅能实现作为目标的被打击功能或者非智能的触发反击功能,模拟训练形式单一,靶标运动或打击功能呈现规律性,不能真实模拟敌方目标主动攻击的能力,因此为适应模拟训练发展的需求实现模拟训练智能化、提高模拟仿真程度就需要通过智能靶标来模拟敌方目标进行作战。在智能靶标的研制过程中其中首先要解决的问题就是目标检测。本研究最终目标是对战场环境中的单兵目标进行检测并做出攻击活动,故对单兵目标的检测速度和精度有较大要求,本文提出一种基于Yolov5神经网络架构提高目标检测精度、加快目标检测速度的算法,采用改进网络结构对传统的目标检测算法进行优化,保证在输入可见光图像下,能够实现快速检测,并保证检测的精度。  相似文献   

16.
陈州全  黄俊  郑元杰 《电讯技术》2023,63(10):1574-1581
传统目标检测大多基于摄像头采集图像进行,虽然近些年出现了许多优秀的检测网络,但在复杂场景下,仍存在大量漏检、误检等问题。针对这些问题,提出了一种基于注意力机制的毫米波雷达和视觉融合目标检测算法。首先将毫米波雷达数据进行扇形点云柱编码(Fan-shaped Cloud Pillar Code,FCPC),将其转换为前景伪图像;然后,再将其通过坐标关系映射到像素平面,使用卷积注意力模块(Convolutional Block Attention Module,CBAM)对两者特征数据进行融合;采用Yolov4-tiny对融合特征进行检测,并引入Focal Loss对原损失函数进行改进以解决正负样本不均的问题。在Nuscenes数据集上进行模型验证与对比,结果表明,该算法在复杂场景下相比其他单传感器检测算法如Yolov3、Efficientent以及Faster-RCNN等,无论平均检测精度(mean Average Precision,mAP) 还是每秒检测帧数(Frames Per Second,FPS)都有明显的提升。  相似文献   

17.
火灾会对人员与财产安全造成巨大危害,如何迅速、准确地检测火焰出现具有重要意义。为实现高大空间条件下火焰的准确识别,设计了一种具有二自由度、可全方位检测环境情况的红外摄像头,并结合深度学习对目标检测算法YOLOv5进行改进;利用K-Means聚类算法匹配出9个聚类中心宽高维度替换原网络anchor参数;考虑了目标框相对比例,对损失函数进行优化,并用于树莓派上实现火焰识别。测试结果表明:改进的YOLOv5算法在树莓派上单张检测耗时2.9 s,较无改进YOLOv5算法减少78%;系统查准率为100%,识别目标框置信度均在0.9以上,能够快速准确识别出火焰。  相似文献   

18.
针对红外图像分辨率低、背景复杂、目标细节特征缺失等问题,提出了一种基于YOLOv5s的改进实时红外小目标检测模型Infrared-YOLOv5s。在特征提取阶段,采用SPD-Conv进行下采样,将特征图切分为特征子图并按通道拼接,避免了多尺度特征提取过程中下采样导致的特征丢失情况,设计了一种基于空洞卷积的改进空间金字塔池化模块,通过对具有不同感受野的特征进行融合来提高特征提取能力;在特征融合阶段,引入由深到浅的注意力模块,将深层特征语义特征嵌入到浅层空间特征中,增强浅层特征的表达能力;在预测阶段,裁减了网络中针对大目标检测的特征提取层、融合层及预测层,降低模型大小的同时提高了实时性。首先通过消融实验验证了提出各模块的有效性,实验结果表明,改进模型在SIRST数据集上平均精度均值达到了95.4%,较原始YOLOv5s提高了2.3%,且模型大小降低了72.9%,仅为4.5 M,在Nvidia Xavier上推理速度达到28 f/s,利于实际的部署和应用。在Infrared-PV数据集上的迁移实验进一步验证了改进算法的有效性。提出的改进模型在提高红外图像小目标检测性能的同时,能够满足实时性要...  相似文献   

19.
针对铁轨表面裂缝的小目标特征及传统检测方法精度低,速度慢等问题,提出一种基于改进YOLOV4的目标检测算法。首先,使用改进的RFB(receptive field block)模块替换空间金字塔池化(spatial pyramid pooling, SPP)结构,以获取特征图更大的有效感受野区域,提升算法的检测精度;其次,采用深度可分离卷积结构替代网络模型中的普通卷积结构,使网络轻量化、提升检测速度;同时,利用K-means++算法重新获取锚框,再对得到的锚框进行线性尺度变化,解决原锚框不适合小目标检测的问题。结果表明改进的YOLOV4算法,平均精度均值(mean average precision,mAP)达到84.8%,相对于原YOLOV4算法提高了3.4%;检测速度(frames per second,FPS)为62.39帧/s,提高了4.07帧/s。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号