首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 109 毫秒
1.
海洋生物相互聚集形成遮挡现象是误检和漏检的重要原因。为了解决这个问题,提出一种采用样本迭代融合辅助网络训练的海洋生物检测方法。首先,选用改进后的深度空洞残差结构作为特征提取网络,提升了网络的特征提取能力;然后,结合海洋生物图像目标遮挡、密集的特点,改进损失函数避免发生误检、漏检现象;最后,为了进一步解决目标遮挡、数据不平衡的问题,提出样本迭代融合方法,生成模拟图像扩充训练集,提高了网络训练的有效性和对小样本量海洋生物的检测能力。实验结果表明,所提海洋生物检测方法在URPC2018和台湾鱼类数据集上的准确率分别达91.36%和90.27%,检测准确率和速度高于现有目标检测算法。  相似文献   

2.
针对红外图像行人检测任务中图像细节少、特征信息提取困难、检测准确率低等问题,提出一种改进的SSD红外行人检测算法。利用深度可分卷积方法降低特征提取网络参数数量和网络运算量,改善实时性;在网络中嵌入SENet模块,重新分配各特征通道权重,提升网络对行人目标针对性;针对行人目标空间占比固定的特点,通过聚类分析算法设定Default Boxes数值,提升行人检测效果。实验结果表明,所提改进算法优于VSSD算法,查准率和查全率分别达到91.7%和84.8%,同时,算法实时性也得到大幅改善。  相似文献   

3.
安防场景的行人目标检测不仅需要识别并标定行人位置,还需要对人脸进行检测与提取,支持人脸比对等下游任务。当前目标检测算法在实际应用中存在运行速度慢、边界框标定不准确、小目标检测效果不佳等问题,文中提出一种基于SSD检测器的安防场景下的行人目标检测算法。针对检测器因为分类与定位子任务强耦合造成边界框标定不准确的问题,采用一种解耦的“检测头”保证检测器定位精度,并通过在不同分支上引入特征增强模块提取适应不同子任务的特征;采用一种任务耦合的损失函数来提升训练效果;针对运行速度慢,采用轻量化网络作为主干网络,结合TensorRT量化模型提升算法在嵌入式平台上的运行速度。通过在NVIDIA TX2嵌入式深度学习平台进行实验,单帧图像检测时间为23.8 ms,平均帧率约为42 f/s,算法具备优秀的实时性与准确性。  相似文献   

4.
针对高分辨率遥感图像中物体排布密集、尺度变化较大等特性,提出一种目标检测算法R-YOLOv5。算法在YOLOv5模型基础上首先将跨阶段局部扩张结构作用于主干网络,采用一种加强的特征提取方式,通过整合空洞卷积和密集连接,来缓解模型对密集分布目标的漏检问题;其次,在主干网络的瓶颈部分结合Transformer模块来增强特征的表达,突出目标区域;最后,引入多尺度特征融合模块,解决多尺度特征融合时存在的不一致性问题,以提高模型的检测效果。在公开的遥感图像检测数据集DIOR的实验结果表明,R-YOLOv5算法平均精度均值(mAP)达到80.6%,具有良好的检测性能。  相似文献   

5.
针对彩色遥感图像上飞机目标体积小、分布密集、背景复杂导致的检测精度低问题,提出了一种改进无锚点的彩色遥感图像任意方向飞机目标检测算法。采用BBAVectors为基准模型,以ResNet50为主干网进行特征提取,在特征金字塔网络FPN后增加一条自上而下的路径扩展网络PANet模块,缩短信息路径并用低层级准确位置信息增强特征金字塔。其次,引入注意力机制CBAM模块,通过抑制噪声和突出目标特征,实现复杂环境下的飞机目标检测精度的提升。在DOTA数据集上分别进行消融实验和对比实验,并使用DOTA_devkit对数据集分别进行0.5以及1倍比例的裁切,提高模型的检测精度。改进后的模型在彩色遥感图像测试数据集上的检测精度达到了90.35%。相较于原模型,检测精度提升了0.82%。实验结果表明,该方法在彩色遥感图像中的飞机检测任务中具有更好的检测效果。  相似文献   

6.
大尺寸遥感图像中小目标和密集目标的检测一直存在着检测准确率低、漏检率高的问题,基于此,以改进的DCL算法处理遥感影像,实现了区块划分,再对各区块的显著性区域进行提取,同时利用深度学习SSD网络,针对密集小目标?进行 了目标数量及间距占比研究,并得出定量关系。实验结果显示该方法的检测准确率大大提高,漏检率大大降低,检测时间明显缩短,成功实现了大尺寸遥感影像中的目标自动识别问题。  相似文献   

7.
无人机广泛应用于环境监测、资源规划和电力巡检等多种领域,其航拍图像中存在大量小尺寸目标,给目标检测任务带来难度。为此,在YOLOv5s的基础上提出一种基于高性能特征提取和任务解耦的目标检测网络(HFTT-Net)算法。首先,针对航拍图像中小尺寸目标特征提取困难的问题,在原始骨干网络的基础上引入多头自注意力机制,使网络充分关注小目标信息,在多尺度特征融合过程中使用SPD(Space-to-depth)组件,增强待检测目标的特征;接着,对于目标检测中普遍存在的任务冲突的问题,将分类头与回归头进行解耦操作,进一步提升目标检测精度;最后,结合基于EIoU的回归损失对网络进行监督,提升网络收敛速度,实现无人机航拍图像中目标的精确检测。在VisDrone2019数据集上的实验结果表明,HFTT-Net中的高性能特征提取和任务解耦操作能够充分提升网络的小目标检测能力,在航拍图像的多密集小目标场景任务中表现突出,该算法在能够满足实时检测的情况下与经典的YOLOv5s算法相比精度提升了2.5%。  相似文献   

8.
针对单目3D目标检测算法中存在图像缺乏深度信息以及检测精度不佳的问题,提出一种联合实例深度的多尺度单目3D目标检测算法。首先,为了增强模型对不同尺度目标的处理能力,设计基于空洞卷积的多尺度感知模块,同时考虑到不同尺度特征图之间的不一致性,从空间和通道两个方向对包含多尺度信息的深度特征进行重新精炼。其次,为了使模型获得更好的3D感知,将实例深度信息作为辅助学习任务来增强3D目标的空间深度特征,并使用稀疏实例深度来监督该辅助任务。最后,在KITTI测试集以及评估集上对所提算法进行验证。实验结果表明,所提算法相较于基线算法在汽车类别的平均精度提升了5.27%,有效提升了单目3D目标检测算法的检测性能。  相似文献   

9.
针对低光照环境下现有的目标检测算法普遍存在检测精度较低的问题,提出一种改进YOLOv5的双通道低光照图像目标检测算法(YOLOv5_DC)。首先,通过伽马变换和叠加高斯噪声的方法合成低光照图像,扩充数据集,提高模型的泛化能力;其次,提出特征增强模块,引入通道注意力机制,融合增强图像和原始图像的低级特征,抑制噪声特征的影响,改善网络的特征提取能力;最后,在颈部网络中加入特征定位模块,增加特征图在目标区域的响应值,使网络更关注目标区域,提高网络的检测能力。实验结果表明:所提YOLOv5_DC算法实现了更高的检测精度,在低光照图像目标检测数据集ExDark*上的平均精度均值(mAP)@0.5达71.85%,较原始的YOLOv5算法,提高了1.28个百分点。  相似文献   

10.
目前Level-Set图像分割方法存在初始轮廓的确定受人为因素影响较大的问题,对目标被遮盖和目标与背景灰度值相近无法达到理想的分割效果。针对此问题,本文提出了利用Faster-RCNN网络模型确定目标初始轮廓和区域信息的先验水平集图像分割方法,搭建Caffe深度学习框架训练Faster-RCNN网络模型;通过有监督学习的方式在IAILD数据集上训练模型,检测出目标建筑物并初步提取建筑物的轮廓,并将其与形状先验的Level-Set算法结合。对比实验结果表明,本文方法解决了Level-Set算法中图像分割结果初始轮廓受人为标记框选的影响较大的问题,能够更好地完成被遮挡建筑物的分割,对于目标建筑和背景灰度值相近也能达到更好的分割效果。  相似文献   

11.
针对锂电池X-Ray图像中电极排布密集且模糊导致工业生产中难以高效检测的问题,提出了一种锂电池电极位置检测的方法。首先通过调整YOLOv5的骨干网络来增强模型对于目标特征的提取能力;其次,针对目标排布密集且像素占比较小的问题,增加目标检测层来提升模型对于小目标的检测性能;同时由于图像中的阴阳极特征较弱,引入注意力机制来进一步加强网络的特征提取能力;最后选取CIoU损失函数来提高定位精度。实验结果表明,提出的方法与主流目标检测方法YOLOv3、YOLOv4、RetinaNet、YOLOv5、TPH-YOLOv5相比,在性能上具有优势,与原始YOLOv5算法相比,mAP提高了约15.2%。提出的方法可以有效改善锂电池电极位置检测的准确性,有助于提高工业生产中锂电池缺陷检测的效率。  相似文献   

12.
目标检测是光学遥感图像解译中的核心问题,在情报侦察、目标监视、灾害救援等领域均具有广泛应用。首先,结合深度学习光学遥感图像目标检测算法研究进展,对基于候选区域和回归分析的两类遥感目标检测算法进行了综述。其次,针对旋转目标、小目标、多尺度、密集目标四类常见特定任务场景目标检测算法改进进行了总结。再次,结合常用遥感图像数据集对不同算法性能进行了对比分析。最后,对未来遥感图像目标检测研究值得关注的问题进行了展望,为后续相关研究提供思路。  相似文献   

13.
针对当前红外场景下多尺度车辆检测精度欠佳且算法模型复杂度高的问题,提出了基于Shuffle-RetinaNet的红外车辆检测算法。该算法以RetinaNet网络为基础,并选用ShuffleNetV2作为特征提取网络。提出双分支注意力模块,通过双分支结构和自适应融合方法增强网络对红外图像中目标关键特征的提取能力;优化特征融合网络,集成双向交叉尺度连接和快速归一化融合,增强目标多尺度特征的表达能力;设置校准因子增强分类和回归之间的任务交互,提高目标分类和定位的准确性。该算法在自建红外车辆数据集上的检测精度达到92.9%,参数量为11.74×106,浮点计算量为24.35×109,同时在公开红外数据集FLIR ADAS上也展现出较好的检测性能。实验结果表明:该算法具有较高的检测精度,且模型复杂度低,在红外车辆检测领域具有较高的应用价值。  相似文献   

14.
针对一次即可识别图中物体(You Only Look Once v8,YOLOv8)的模型在密集缺陷检测任务中因特征提取能力不足导致的漏检、错检等问题,文章提出SE-YOLO算法。改进后的SE-YOLO密集缺陷检测算法为了使模型关注更多维度的特征信息,使用Swin Transformer网络作为主干网络。文章引入中心化特征金字塔模块,以提取全局长距离相关性,可以尽可能地保留输入图像的局部角点区域信息。改进后的SE-YOLO密集缺陷检测算法可以更加准确地检测出缺陷的类别和位置,在密集缺陷检测任务中具有较高的精确度与鲁棒性。  相似文献   

15.
地铁场景行人目标存在大小不一、不同程度遮挡以及环境过暗导致目标模糊等问题,很大程度影响了行人目标检测的准确性。针对上述问题,本研究提出了一种改进YOLOv5s目标检测算法以增强地铁场景行人目标检测的效果。构建地铁场景行人数据集,标注对应标签,进行数据预处理操作。本研究在特征提取模块中加入深度残差收缩网络,将残差网络、注意力机制和软阈值化函数相结合以增强有用特征信道,削弱冗余特征信道;利用改进空洞空间金字塔池化模块,在不丢失图像信息的前提下获得多尺度、多感受野的融合特征,有效捕获图像全局上下文信息;设计了一种改进非极大值抑制算法,对目标预测框进行后处理,保留检测目标最优预测框。实验结果表明:提出的改进YOLOv5s算法能有效提高地铁场景行人目标检测的精度,尤其对小行人目标和密集行人目标的检测,效果提升更为显著。  相似文献   

16.
基于深度学习的航空对地小目标检测   总被引:1,自引:0,他引:1  
梁华  宋玉龙  钱锋  宋策 《液晶与显示》2018,33(9):793-800
针对航拍图像中对地小目标识别率低、定位效果差的问题,提出了一种基于深度学习的目标检测算法。该算法利用VGG16网络作为微调网络,并添加部分深层网络,通过提取目标浅层特征与深层特征进行联合训练,克服检测过程中定位与识别相互矛盾的问题。提出把奇异值分解技术应用于卷积特征压缩处理,降低模型的计算与存储需求,并且采用多尺度训练方法以适应航空目标尺度的变化。实验结果表明,在通用数据集PASCAL上可以实现0.76mAP,检测速度达16fps,在专用航空目标数据集UCAS-AOD上可以实现0.63mAP,检测速度达18fps。基本满足对小目标检测精确度的要求,并且检测速度可以接近实时检测效果。  相似文献   

17.
针对深度学习中残差网络ResNet50存在的信息丢失、特征提取不充分、网络过拟合和训练困难等问题,文中提出一种基于改进ResNet50的图像分类算法。针对残差网络ResNet50在提取特征时存在丢失输入特征映射情况,造成信息丢失的问题,对主干网络中Stage4的下采样块添加平均池化层,进一步提高网络特征提取能力;针对ResNet50训练过程中存在网络过拟合以及泛化能力差的问题,使用标签平滑方法对交叉熵损失函数进行修改,有效缓解网络损失值震荡幅度;针对ResNet50计算量大、训练困难的问题,使用混合精度和余弦退火衰减方法对模型进行训练,在加快网络收敛速度的同时提高模型的分类精度。实验结果表明,与原ResNet50网络相比,文中算法在ImageNet-1k数据集上Top1和Top5的精度分别提升3.2%和1.6%,能够更好地应用于图像分类任务。  相似文献   

18.
传统光伏面板缺陷检测任务以人工目视方法为主,存在效率低、精度差、成本高等问题。提出基于深度学习的融合光伏面板可见光图像与红外图像的缺陷检测网络,即多源图像融合网络(MultisourceFusionNetwork,MF-Net),实现光伏面板的缺陷检测。MF-Net以YOLOv3tiny为主干结构,并针对光伏面板缺陷特征进行网络结构改进。其中包括:在特征提取模块中增加网络深度并融入密集块结构,使得MF-Net能够融合更多高层语义信息的同时增强特征的选择;将双尺度检测增加为三尺度检测,以提高网络对不同尺寸缺陷的适用度。此外,提出自适应融合模块,使特征图融合过程中可以根据像素邻域信息自适应分配融合系数。实验结果表明,相比基于YOLOv3 tiny的融合网络,改进后的融合检测网络m AP提高7.41%;自适应融合模块使m AP进一步提升2.14%,且自适应融合模块能够有效提高特征的显著性;在与单一图像(仅有可见光图像或红外图像)的检测网络及其他融合图像检测网络的对比实验中,所提出的网络F1 score最高(F1=0.86)。  相似文献   

19.
石瑶  陈美玲 《激光杂志》2023,(12):70-74
为了提升目标检测效果,设计基于深度学习算法的三维激光雷达主动成像目标检测方法。利用深度学习算法的生成对抗网络,剔除三维激光雷达主动成像过程中的杂波干扰,得到无杂波干扰的目标三维图像;设计生成模型与对抗模型的损失函数,利用端到端深度神经网络的点云编码层,在无杂波干扰的目标三维图像内,提取目标三维图像特征,并输入目标检测层内;通过目标检测层输出目标检测候选框,利用非极大值结合混合置信度,确定最终目标检测框,完成三维激光雷达主动成像目标检测。实验结果表明:该方法可有效剔除杂波干扰,得到无杂波干扰的目标三维图像;该方法可有效完成三维激光雷达主动成像目标检测,且在不同目标运动模糊长度像素时,该方法目标检测的交并比均高于阈值,说明该方法的目标检测精度较高。  相似文献   

20.
苏海锋  赵岩  武泽君  程博  吕林飞 《红外技术》2021,43(11):1104-1111
电力设备在运行过程中会产生大量红外图像,当红外图像中的电力设备存在排列密集、具有倾斜角度、大长宽比的情况时,基于水平矩形框的目标检测网络只能给出目标概略位置,易发生目标检测区域重叠,引入冗余背景信息,使得检测结果不够精细。针对此问题,提出在RetinaNet目标检测网络中引入旋转矩形框机制,并在网络输入端引入Mosaic数据增强技术;将原特征提取网络中ReLU函数替换为梯度流更平滑的Mish激活函数;在原模型FPN模块后追加PAN模块进一步融合图像特征。最后利用现场采集的电力设备红外图像制作数据集,将改进后的模型与Faster R-CNN、YOLOv3、原RetinaNet三种基于水平矩形框定位的目标检测网络进行对比评估,实验表明改进后的模型可以更为精细地检测出密集场景下带有倾角的电力设备红外目标,在多类别电力设备检测准确率对比上高于以上3种模型。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号